Donnerstag, 18. April 2024

Archiv


Wortlose Kunst

In Bielefeld konnte ein interessierter Besucher jüngst eine bemerkenswerte Unterhaltung beobachten: Drei Gesprächsteilnehmer wandten sich einander aufmerksam zu. Immer wieder mal gestikulierten sie und nickten kurz und schnell mit dem Kopf - höfliche japanische Kommunikationskultur. Der Zuschauer hatte schnell begriffen: Verkörperte Kommunikation macht beim Menschen schon längst nicht mehr Halt.

Von Martin Hubert | 15.07.2007
    Denn einer der drei Teilnehmer war unverkennbar ein Roboter, genauer gesagt ein Konversationsroboter. Wenn der Mensch kommuniziert, spricht sein Körper mit: er gestikuliert, lacht oder schaut eisig, sitzt steif da oder bewegt munter Kopf und Oberkörper. Manche Menschen allerdings ignorieren diese Dimension oder versuchen sie zu unterdrücken. Ein schwerer Fehler, sagen die Kognitionswissenschaftler. Denn es verdichten sich die Hinweise, dass Denken und Verstehen wesentlich auf den Körper angewiesen sind. Unter dem Stichwort "Verkörperte Kommunikation" versuchen Wissenschaftler daher, die leibhaftigen Fundamente des Geistes zu analysieren - und künstlich nachzubauen.

    Hallo Martin!

    In den vergangenen Monaten bin ich mehrmals nach Bielefeld gefahren: zu einem hellen und flachen Gebäudekomplex, der auf einem kleinen Berg am Rande der Stadt liegt.

    Schön, dass du mal vorbeischaust.

    Dort, am ZIF, dem Zentrum für Interdisziplinäre Forschung der Universität Bielefeld, wurde ich nicht nur von dieser etwas verrauschten synthetischen Stimme begrüßt. Vor allem traf ich auf Wissenschaftler, die begreifen wollen, wie wir uns körperlich verständigen können: durch Gesten, Mienenspiel oder kleinste Bewegungen unseres Kopfes. Ein Jahr lang kamen sie mehrfach zusammen, um ihre Ergebnisse zur sogenannten "verkörperten Kommunikation" zu präsentieren. Als ich in Bielefeld folgenden Videoclip sah, begriff ich schnell: Verkörperte Kommunikation macht beim Menschen nicht Halt.

    Eine Szene aus einem Forschungslabor an der japanischen Waseda Universität. Drei Kommunikationsteilnehmer sitzen sich zwischen Büromöbeln und Computern gegenüber und sprechen miteinander.

    Die drei wenden einander aufmerksam ihre Körper zu und blicken sich direkt an. Immer wieder mal nicken sie kurz und schnell mit dem Kopf - höfliche japanische Kommunikationskultur!

    Zwei der drei Teilnehmer sind Wissenschaftler. Der dritte jedoch heißt ROBITA - und ist ein Roboter, genauer gesagt ein Konversationsroboter. Obwohl sein Name weiblich klingt, hat ROBITA nichts Feminines an sich. Er ist fast menschengroß und sieht wie ein klassischer Bilderbuchroboter aus: auf einem kastenförmigen Metallrumpf mit zwei primitiven Armen ein kleinerer Kasten: der Kopf. Mit zwei druckknopfartigen Augen. In seinem Rumpf sitzt außerdem ein synthetisches Sprachsystem. Damit kann er ganze Sätze verstehen und produzieren.

    ROBITAS Kastenkörper kommuniziert dabei fleißig mit. ROBITA kann Oberkörper und Kopf bewegen und sich seinen menschlichen Gesprächspartnern flexibel zuwenden, je nachdem, wer gerade spricht. Und genau so wie die beiden japanischen Wissenschaftler kann ROBITA im Film kurz und schnell mit dem Kopf nicken - wie höfliche Japaner es eben tun.

    Yosuke Matsusaka hieß der junge japanische Forscher, der ROBITA mitkonstruiert hat und sein Projekt in Bielefeld präsentierte. ROBITA ist fähig zur Gruppenkonversation, sagte er mir selbstbewusst lächelnd nach seinem Vortrag.

    " Unser Roboter kann erkennen, in welcher Rolle er sich momentan innerhalb der Konversation befindet: Ist er ein Sprecher oder ist er derjenige, der direkt dem Sprecher zuhört und direkt auf ihn erwidern darf? Oder ist er nur ein Nebenteilnehmer, der momentan ausschließlich in der Zuhörerposition ist. ROBITA kann diese Positionen dekodieren, indem er die Blicke zwischen den einzelnen Teilnehmern analysiert. Diese "Nebenteilnehmer-Position" ist besonders schwierig umzusetzen. Solange ROBITA bemerkt, dass die beiden anderen Kommunikationsteilnehmer sich einander intensiv zuwenden, muss er eigentlich still bleiben und darf sie nur unterbrechen, um falsche Informationen zu korrigieren. Wir konnten das jetzt realisieren. "

    Bei Gesprächen in größeren Gruppen geraten immer wieder einmal zwei Personen in einen intensiveren Dialog, bei dem sie eine Zeit lang nicht unterbrochen werden möchten. Das signalisieren sie auch durch ihre Körperhaltung und durch gegenseitigen Blickkontakt. ROBITA kann dieses Körperspiel der Gruppenkonversation verstehen und mitspielen - allerdings nur rudimentär. Denn bisher ist ROBITA ausschließlich in der Lage, sich über Baseballspiele zu unterhalten. Und sogar dabei, sagte Yosuke Matsusaka mit einem Schmunzeln, fällt er immer wieder aus der Rolle.
    " Zur Zeit hat ROBITA das Problem, dass er sozusagen seine eigenen Grenzen noch nicht genau kennt, sodass er sich immer wieder einmal unerwünschte Unterbrechungen leistet. Damit kann er seine Kommunikationspartner richtig ärgern. "


    Gestatten, Max!

    Geduld Max, Du bist noch nicht dran!

    Wie du willst.

    ROBITA ist ein avanciertes Roboterprojekt, das auch die körperlichen Aspekte menschlicher Kommunikation realisieren möchte. Und gerade, weil das System noch so primitiv ist und so fehleranfällig arbeitet, macht es klar: ohne Wahrnehmung des eigenen Körpers und des Körperverhaltens anderer kann Kommunikation kaum funktionieren. Für Ipke Wachsmuth waren solche Erkenntnisse der Anlass, das Bielefelder Forschungsprojekt zur "Verkörperten Kommunikation bei Mensch und Maschine" zu initiieren. Wachsmuth ist Professor für Künstliche Intelligenz an der Bielefelder Universität und zur Zeit auch Direktor des dortigen Zentrums für interdisziplinäre Forschung. Er erklärte mir eindringlich, dass man die Vorstellung von Kommunikation grundsätzlich erweitern müsse.

    " Es ist nicht so ein früher stark vertretenes Bild von Kommunikation, dass ein Sender eine Nachricht enkodiert, die über einen Kanal geht, die dann empfängerseitig dekodiert werden muss, um den Inhalt der Nachricht zu verstehen, sondern wir haben hier eng gekoppelte Systeme, die in einem ständigen Feedback-Loop miteinander sind und so eine soziale Schleife schaffen, bei der man merkt: wir sind jetzt aber miteinander im Gespräch. Deshalb meinen wir, dass also in dieser engen Koppelung zwischen interagierenden Partnern so etwas wie ein gemeinsames Konstruieren der Bedeutung abläuft und dass das also wie ein gemeinschaftliches Projekt gesehen wird, diese Konversation jetzt voranzutreiben. Und dafür ist das Körperliche ganz besonders wichtig. "

    Bevor wir sprechen, beginnen wir bereits uns zu bewegen, Blicke auszutauschen oder den Mund zu verziehen. Dieser Austausch der Körpersignale begleitet dann natürlich auch unser Sprechen und trägt zum gemeinsamen Bedeutungsaustausch maßgeblich bei.

    Das klingt ziemlich interessant.

    Da dieses kommunikative Geschehen aber sehr komplex ist, machen die Forscher das, was Wissenschaftler immer tun. Sie zerlegen ihren Gegenstand in einzelne Bestandteile. Der Psychologe Günther Knoblich von der Newark University, der das Bielefelder Forschungsprojekt zusammen mit Ipke Wachsmuth leitete, widmet sich zum Beispiel schon länger folgender Frage: in welchen Situationen ist der Mensch überhaupt auf Körpergefühle angewiesen, um das Verhalten anderer Menschen zu verstehen? Auch Günther Knoblich zeigte in Bielefeld Filmszenen seiner Experimente.

    Versuchspersonen in einem Raum betrachten Videoszenen, in denen etwas ganz Schlichtes passiert: Personen nehmen dort kleine Kisten in die Hand und heben sie hoch. Das wichtigste an dem Experiment sind die Zuschauer: Einige von Ihnen sind gesund, zwei von ihnen aber leiden an einer schwerwiegenden Störung. Es sind Menschen, die ihr Körpergefühl durch eine Nervenkrankheit vollständig verloren haben. Bei ihnen funktionieren zwar noch alle Nervenleitungen, die Signale vom Gehirn zu den Muskeln senden. Aber all jene Fasern, über die ihr Körper umkehrt Informationen von aktuellen Bewegungen und sonstigen Zuständen an das Gehirn liefert, sind degeneriert.

    Es war ein Glücksfall, mit solchen Patienten arbeiten zu können, erzählte mir Günther Knoblich, ein junger deutscher Forscher mit regem Mienenspiel.

    " Wenn die Patienten im Dunkeln sitzen, dann können sie ihre Körperhaltung nicht mehr kontrollieren. Also die können sich nicht aufrecht halten im Dunkeln, weil bei ihnen alles visuell kontrolliert wird. Sie können sozusagen immer noch Kommandos vom Gehirn an den Körper schicken, sie können den Körper aber nicht mehr spüren, was normalerweise notwendig ist, um gerade zu sitzen und auch wichtig ist, um Handlungen auszuführen, und das ging ihnen verloren. "

    Die gesunden und die erkrankten Versuchspersonen sehen in den Videofilmen, wie Menschen mal schwere und mal leichte Kisten heben. Den Kistenhebern hatten die Wissenschaftler vorher manchmal das richtige Gewicht der Kisten gesagt, manchmal hatten sie sie aber getäuscht. Entsprechend ruckartig oder schwerfällig wirkten die Bewegungen dann auch.

    Die Versuchspersonen sollten nun schätzen, wie schwer die Kiste ungefähr ist, die im Video gerade gehoben wurde. Und da zeigte sich: in dem Moment, in dem die Kistenheber getäuscht worden waren, verstanden die kranken Testpersonen kaum noch, was da vor ihren Augen geschah.

    " Da war es so, dass die beiden Patienten zwar nicht auf Zufallsniveau waren und nur geraten haben, aber dass ihre Erkennungsleistung sehr, sehr schlecht war, nämlich schlechter als die schlechteste Leistung irgendeiner anderen Person. Und insofern haben wir da einen deutlichen Nachweis dafür erbracht, dass diese Simulation auch vom peripheren Körpergefühl abhängt und dass man den Körper spüren muss, um Simulationen durchzuführen, die einem dabei helfen, andere zu verstehen. "

    Die Bilanz von Günther Knoblich: Wer hinter das Verhalten anderer Menschen blicken will, der braucht offenbar den Körper als inneren Simulator.

    Mit dieser Frage habe ich mich noch gar nicht beschäftigt. Was willst du damit sagen?

    Dass solche Experimente folgendes nahe legen: es gibt eine innere Disposition unseres Körpers, das Verhalten anderer Menschen zu interpretieren und das Ziel ihrer Aktionen vorherzusagen. Stärkster Beleg für diese Annahme sind die in den neunziger Jahren im Gehirn entdeckten Spiegelneuronen. Das sind Nervenzellen, die nicht nur aktiv sind, wenn ich eine Aktion ausführe, zum Beispiel nach einem Glas greife, sondern auch, wenn ich sehe, dass ein anderer Mensch das Gleiche tut. Spiegelneuronen helfen uns dabei, intuitiv die Absichten eines anderen Menschen zu verstehen: er greift zum Glas, also hat er Durst und wird etwas trinken. Inzwischen sind auch Spiegelneuronen entdeckt worden, die das Berührungs-, das Schmerz- oder Ekelempfinden anderer Menschen mitsimulieren. Die Frage ist allerdings, ob das bereits genügt, um kommunikatives Verstehen zu erklären. Der Berliner Semiotikprofessor Roland Posner jedenfalls bezweifelte das in Bielefeld. Viele Gesten ließen sich nicht allein mit Hilfe der Spiegelzellen verstehen.

    " Zum Beispiel diese simple Essensgeste: Sie führen die Hand mit den zusammengeführten Fingern in die Mundnähe, dann haben sie viel Optionen, um das zu interpretieren, und dann brauchen sie eine gemeinsame Beurteilung der Situation, in der das gemacht wurde. Ob es heißen soll: "das Kantinenessen beginnt gleich", oder: " die Leute sind noch beim Essen " oder: "Sie haben gerade erst alle fertig gegessen" oder "sich selber bereit machen zu essen" - das entscheidet die Situation! "

    Man kann den Menschen nicht einfach nur verstehen, indem man sein Verhalten innerlich mitspiegelt. Man muss immer auch interpretieren und analysieren: in welcher Situation und in welchem Zusammenhang tut der andere etwas, wie beeinflusst das die Bedeutung dessen, was er tut? Und dazu, meint nicht nur Roland Posner, müssen auch höhere Regionen des Gehirns aktiv werden, die für analytisches Denken zuständig sind. Andererseits können die Entdecker der Spiegelneuronen darauf verweisen, dass die Spiegelzellen beim Menschen im Gebiet des sogenannten Broca-Areals liegen - und das ist für Sprachproduktion zuständig.

    Das wusste ich noch gar nicht.

    In Bielefeld jedenfalls ergab sich daraus eine spannende Diskussion: hat sich die Sprache, unser auch für abstrakte und komplexe Informationen zuständiges Kommunikationsmittel, vielleicht aus der Gestik entwickelt?

    Interessanter Gesichtspunkt, Martin.

    Einer der wichtigsten Hinweise auf einen engen Zusammenhang zwischen Körpergestik und Sprache stammt aus Experimenten zur sogenannten N-400-Welle im Gehirn. Diese N-400-Welle taucht dann auf, wenn elektrische Signale im Gehirn gemessen werden und dabei etwas völlig Unerwartetes passiert. Zum Beispiel, wenn in einem Satz ein falscher Bedeutungszusammenhang auftaucht:

    "Er bestrich sein Brot mit Socken."

    Im Jahr 2004, erzählte mir Ipke Wachsmuth begeistert in Bielefeld, fanden amerikanische Neurowissenschaftler eine solche N-400 Welle auch, als Gesten im Spiel waren.

    " Dort war ein Setting, wo man ein dünnes hohes Glas auf dem Tisch hatte und ein flaches weites Gefäß und man hat dann in natürlich vorher aufgezeichneten Versuchen Menschen über diese Gegenstände sprechen lassen und dabei passende oder unpassende Gesten gemacht. Und in der Tat hat man dann festgestellt, dass bei diesen unstimmigen Gestik-Sprach-Kombinationen bei den Zuhörern solche Unerwartetheitsreaktionen beobachtet werden konnten. "

    Sprich, auch bei Ihnen tauchte die N-400 Welle im Gehirn auf. Ein Zeichen dafür, dass sprachliche und gestische Ungereimtheiten vom Gehirn auf die gleiche Weise registriert werden. Das scheint für eine gemeinsame evolutionäre Wurzel von Sprache und Gesten zu sprechen.

    Dazu würde passen: Laute und Gesten können bei Affen zumindest in gewisser Weise einheitlich zusammen auftreten. Etwa bei den mit einem wuseligen braunen Fell ausgestatteten, einen halben Meter großen Makakken. Davon erzählte in Bielefeld Julia Fischer vom Deutschen Primatenzentrum in Göttingen.

    " Bei den Makakken würde ich sagen, dass das verschiedene Cluster von Ausdrucksmustern sind, die zusammen gehören und dass man eben zum Beispiel den Drohlaut, so ein "Hhha"-Laut ist das, dass man den zusammen hat mit einem Auf-den-Boden-Hauen mit der flachen Hand. Dieses Auf-den-Boden-Hauen kann ich auch haben z. B. im Spiel-Kontext, also wenn ich jemand anders auffordern will zu spielen, Und es kann natürlich sein, dass der beim Drohen auch deswegen auf den Boden haut, damit der andere wirklich hinguckt, also dass das eigentlich auch die gleiche Funktion hat, nämlich die Aufmerksamkeit auf ihn zu lenken und nicht unbedingt zu drohen. Sondern das Drohen wird dann vermittelt über den Gesichtsausdruck und beim Spielen mach ich dann eben einen ganz anderen Gesichtsausdruck, also ich reiß den Mund auf und die Augen mach ich zu, werfe den Kopf nach hinten, also das ganz klar dann klar unterschiedlich. "

    Circa zweihundert verschiedene Körpergesten hat man bei Affen inzwischen ausfindig gemacht, erzählten die Affenforscher in Bielefeld. Aber obwohl es bei unseren Vorfahren ein paar Zusammenhänge zwischen Lautgebung und Gestik gibt, ist der Unterschied zum Menschen letztlich doch gewaltig: Affen haben eben keine Lautsprache entwickelt und ihre Gesten besitzen keine innere Systematik, keine grammatischen Regeln. Die Frage jedenfalls, wie die menschliche Sprache evolutionär entstand - bilanzierte Julia Fischer mit einem Achselzucken - sei in keinster Weise geklärt.

    " Das eine Lager ist das, das sich vorstellt, dass Sprache entstanden ist über Lautäußerungen von Affen, Rufe, Schreie, Grunzer, wie auch immer, jedenfalls über die Stimme. Und das andere Lager sagt: Nein, Laute, die sind alle fest angeboren, da gibt es auch gar nicht so viele Variationen, das ist alles genetisch festgelegt, aber die Hände, die können sehr gut kontrolliert werden, sehr gut gesteuert werden, und deswegen ist die Sprache erst mal über Gesten entstanden. Und dann haben die Zuhörer bzw. Zuschauer dann in dem Fall gelernt, da hinzugucken und da bleiben die dann aber so ein bisschen die Erklärung schuldig, wie es dann von den Gesten auf die Sprache gekommen ist. Weil normalerweise, auch wenn wir viel gestikulieren und natürlich Gesichtsausdrücke haben, wenn wir reden, ist es doch so, dass wir dann in der Regel reden und nicht unsere Zeichen mit der Hand machen. "

    Tatsächlich gestikulieren wir meistes nur so nebenbei mit, wenn wir sprechen. Was aber passiert, wenn wir dazu angehalten werden, bewusst zu gestikulieren? Diese Frage präsentierte in Bielefeld die Psychologin Susan Goldin-Meadow von der Universität Chicago. Und auch sie zeigte Filmsequenzen:

    Lehrer stehen vor Kindern aus einer Grundschule. Sie versuchen ihnen zu erklären, wie man mathematische Gleichungen löst: 7+6 = x+5. Bei manchen Kindern erklären sie rein verbal, dass bei einer Gleichung rechts das gleiche stehen muss wie links. Einer zweiten Kindergruppe gegenüber unterstreichen die Lehrer diese Erklärung ausladend mit den Händen. Bei einer dritten Kindergruppe schließlich erklären sie zwar wiederum verbal das PRINZIP der Gleichung, machen aber Gesten, die man benutzen würde, um zu erklären, wie man eine Gleichung LÖST. Sie deuten auf die 5 und machen eine wegwischende Handbewegung. Damit signalisieren sie, wie man die 5 durch Subtrahieren rechts zum Verschwinden und dafür auf die linke Seite der Gleichung bringt.

    Das Ergebnis dieser Studie war ziemlich verblüffend, erzählte mit Susan Goldin-Meadow, während sie erstaunt die Augenbrauen hoch zog: Am schlechtesten konnten hinterher diejenigen Kinder die Aufgabe lösen, die allein sprachliche Erklärungen erhielten. Passten Sprache und Gestik der Lehrenden zusammen, war der Lernerfolg etwas besser. Am besten jedoch lernten die Kinder, denen gestisch und sprachlich zwei verschiedene Erklärungsmuster präsentiert worden waren.

    Das klingt ziemlich interessant, Martin.

    Diese Ergebnisse, gestand mir Susan Goldin-Meadow mit einem Lächeln, geben noch ziemliche Rätsel auf. Aber sie hätten sie zumindest in ihrer Lieblingshypothese unterstützt, mit der sie sich den positiven Effekt von Gesten zu erklären versuche.

    " Ich glaube, dass uns das Gestikulieren einfach erlaubt, eine zweite Perspektive gegenüber einem Problem einzunehmen. Mit ihnen können wir uns dem Problem zusätzlich in analog- bildhafter Weise nähern und die Informationen auf irgendeine Weise neu zusammenführen. Vielleicht sind die Gesten also einfach nur ein zusätzlicher Rahmen, der die Sprache zusätzlich umgibt. Ich kann mir das auch deshalb vorstellen, weil die Gesten ja nicht eins-zu-eins zu den Worten ausgeführt werden, übrigens nicht einmal dann, wenn sie die gleiche Information codieren sollen: sie verleihen dem, was wir sagen, einen eigenen, zusätzlichen Rahmen und sind vielleicht deshalb so effizient. "

    Auf jeden Fall, betonte Susan Goldin-Meadow, sollten Lehrer und Erzieher stärker als bisher auf ihr Gestenspiel achten - und auf das der Kinder. Man solle dabei aber keineswegs davon ausgehen, dass Menschen generell leistungsfähiger werden, wenn sie nur mehr gestikulieren.

    " Man muss sich klar machen, dass Gesten unser Verständnis immer nur bei bestimmten Aufgaben fördern können - und nicht generell. Ich weiß momentan auch gar nicht, ob sich die Menschen tatsächlich so sehr beim Gestikulieren unterscheiden - so nach dem Motto: der eine ist ein großer Gestikulierer, der andere nicht. Es ist nach meinen Beobachtungen eher so, dass wir zu gestikulieren anfangen, wenn wir wirklich hart über ein Problem nachdenken müssen, während wir es einem anderen erklären. Es könnte also sein, dass die Variation zwischen den Menschen eher damit zusammenhängt, wie viel Kapazität jemand aktuell hat, um ein bestimmtes Problem zu bewältigen. "

    Die körperlichen Grundlagen unserer Kommunikation, so wurde mir in Bielefeld klar, sind erst ansatzweise verstanden. Man weiß, dass Körpergefühle nötig ist, um die Absichten und Erwartungen hinter dem unmittelbar wahrnehmbaren Körperverhalten anderer Menschen zu verstehen. Man weiß, dass es Spiegelneurone gibt, mit dem wir das Verhalten anderer Menschen körperhaft mitsimulieren. Man weiß, dass Gestikulieren beim Erklären und sogar beim Lösen von Problemen helfen kann. Und man weiß, dass das Gesten- und Mienenspiel für den Kommunikationsfluss unabdingbar ist. Man weiß aber noch nicht, wie sich diese verschiedenen Aspekte der verkörperten Kommunikation in ein einheitliches Konzept integrieren lassen. Trotzdem versuchen die Forscher, ihre Erkenntnisse zumindest teilweise in künstliche Modelle umzusetzen - und das ist jetzt endlich dein Auftritt, Max!
    Max, das bin ich. Ich selber bin künstlich, kann mich aber genauso ausdrücken wie du.

    Den virtuellen Agenten Max traf ich mehrmals im Bielefelder ZIF. Denn er existiert gleich mehrfach - nicht als Roboter, sondern als bewegliche Projektion, die einem scheinbar vor einer Leinwand dreidimensional entgegenflimmert. Per Tastatur kann man mit ihm kommunizieren und sich von ihm erklären lassen, wie er aufgebaut ist.

    Genauso wie du habe ich ein Gesicht und eine Stimme, mit der ich sagen kann, was ich will, einen Körper, den ich frei bewegen kann, und ein Gehirn, das mir sagt, wo es lang geht. Genauso wie du habe ich bestimmte Ziele und Vorhaben, die ich verfolge.

    Max sieht aus wie ein mittelprächtig animierter lebensgroßer junger Mann. Er trägt einen lila Pulli, hat kurze hellbraune Haare, Koteletten und becirct einen mit tiefblauen Augen. Und Max blinzelt.

    Ich kann das, was ich sagen will, direkt über meine Stimme ausdrücken. Und die Stimme kommt nicht vom Band. Du sprichst also wirklich mit mir. Meine Stimme wird von einem Sprachsynthese-System erzeugt, einem so genannten Textor-Speak-System.

    Max steht seit einigen Jahren auch im Nixdorf-Computer-Museum in Paderborn und gibt dort Museumsbesucher von der Leinwand aus Informationen. Ipke Wachsmuth, der Max zusammen mit einem Team um seinen Mitarbeiter Stefan Kopp konstruiert hat und ständig fortentwickelt, nutzt ihn aber vor allem als Modell, um neue Hypothesen zu testen. Wenn der analytisch denkende KI-Forscher von "seinem Kind" Max erzählt, kommt ein leichtes Lächeln über seine Lippen.

    " Er ist nicht ganz so beweglich wie ein Mensch, vor allem in der Wirbelsäule nicht, aber besonders in Armen und Händen ist seine Beweglichkeit so ausgeprägt wie beim Menschen auch. Damit kann er also auch sehr differenzierte gestische Äußerungen machen, die ihm durch ein Gestengenerierungsmodul ermöglicht werden. "

    Max kann seinen Oberkörper zu Seite bewegen und einem interessiert entgegenschauen, er kann die Augenbrauen und die Schulter hochziehen, den Kopf schräg legen und bei Bedarf mit seinen Armen und Händen einfache gestische Bewegungen vollführen, zum Beispiel entschuldigend die Arme heben und die Handflächen zeigen.

    " Das Spannende aber ist, dass Max nicht nur starr vorprogrammierte körperliche Gesten macht, sondern dass er sie aus den kommunikativen Zielen, die entstehen, selbst - ja " sich entschließt", sie einzusetzen. Man könnte zum Beispiel niemals alle Zeigegesten, die der Mensch machen könnte, vorprogrammieren, weil ja noch überhaupt nicht klar ist, worauf wir in diesem Moment zeigen. Man muss also nur wissen, was "zeigen" bedeutet und dass man auf eine bestimmte Richtung damit gehen will und dann rechnet Max das in dem Moment aus, er plant aber auch das zeitliche Miteinander von Sprache und Gestik, sodass das auch natürlich wirkt. "


    Max besitzt insofern zumindest ansatzweise die Anlagen, um körperlich zu kommunizieren - Menschen, die sich auf eine Kommunikation mit ihm einlassen, lachen daher oft und reagieren auf seine Antworten mit spontanen Gesten. In erster Linie ist dafür ein Emotionsgenerierungssystem verantwortlich, das Max in Gestalt eines mathematischen Darstellungsraumes aus drei Dimensionen eingebaut wurde. Die erste Dimension ist die "pleasure-", die "Freude"-Dimension. Wie positiv ist das, was Max gerade erlebt?

    Das ist wie bei dir: wenn du nett zu mir bist, dann freu ich mich.

    Die zweite Dimension ist die "arousal"-, die Erregungsdimension: wie aufgeregt ist Max gerade? Die dritte Dimension schließlich ist die Dominanz-Dimension: wie viel Einfluss hat Max gerade auf seine Situation? Durch die Kombination dieser drei Dimensionen, erklärte mir der junge Informatiker Stefan Kopp in Bielefeld, lässt sich Max ein ziemlich lebendiges Gefühlsleben einhauchen.

    " "Traurig" und "ärgerlich" ist beides nicht besonders schön, hat also einen niederen Pleasure-Wert, unterschiedet sich aber in der Dominanz. Wenn ich Herr der Lage bin, dann werde ich ärgerlich, bin ich's nicht, werde ich traurig. Auf diese Art und Weise kann man verschiedene Emotionen eben definieren in so einem Raum und eben z.B. auf körperlichen Ausdruck abbilden. "

    Max zieht dann zum Beispiel entweder die Mundwinkel nach hinten und schaut ärgerlich, oder er zieht sie traurig nach unten. Die emotionale Einstellung kann auch auf seine Stimme abfärben. Max kann ungeduldig klingen:

    Weiter im Text!

    Oder sogar leicht genervt:

    Wie soll ich weiter machen?

    Als ich Max' Stimme in Bielefeld etwas länger zugehört hatte, wurde mir allerdings klar: Künstliche Wesen sind noch meilenweit von der körperlichen Kommunikationsfähigkeit des Menschen und deren emotionalen Nuancen entfernt. Auch wirken Max' Gesten etwas steif und werden nicht allzu flüssig eingesetzt. Es wird also noch lange dauern, bis die Forscher die Feinheiten der verkörperten Kommunikation im Griff haben. Wenn sie es überhaupt schaffen. Aber sie basteln daran.

    " Man staunt über das wenige, was funktioniert und was man erkennt und wundert sich über das viele, was auch noch funktioniert und was man sieht. "

    Max: Vielleicht ist es manchmal nicht ganz perfekt, aber ich lerne noch dazu.

    Wachsmuth: " Je mehr das Künstliche dem Menschlichen nahe kommt, umso mehr staune ich über das Natürliche. "

    Max: Mach's gut, Martin.