Die alte Weisheit Karl Valentins gilt auch noch heute: Prognosen sind schwierig, besonders wenn sie die Zukunft betreffen. Dazu reicht ein kurzer Rückblick: Vor 15 Jahren hätte sich niemand träumen lassen, dass Klingeltöne eines der wichtigsten Marktsegmente der Musikindustrie werden, weil es kaum Handys mit individuell einstellbaren Tönen gab. Dass man die virtuelle Online Umgebung Second Life geschäftlich nutzt, beispielsweise von IBM für Mitarbeiter-Meetings, konnte sich auch niemand vorstellen, da solche Umgebungen allenfalls den Spielern vorbehalten waren. Im Geschäftsbereich setzte man auf Videokonferenzen in mäßiger Bild und Tonqualität. Und der Begriff Avatar entlockte damals selbst vielen Fachleuten nur Stirnrunzeln. Fünfzehn Jahre später, 2007 auf dem Kongress "forward2business" in Halle gab es kein Forum, in dem nicht wenigstens einmal der Begriff Avatar genannt wurde. Der Avatar als Retter im Dschungel der Online Welten. Der Avatar als Schnittstelle der Systeme. Der Leiter des Fraunhofer Instituts für graphische Datenverarbeitung in Rostock, Professor Dr. Bodo Urban, haucht dem Avatar sogar Persönlichkeit ein. Und zwar per Datenhandschuh:
"Der Handschuh ist ausgestattet mit Sensoren zur Aufnahme von physiologischen Parametern, das sind Herzfrequenz, das ist Hautwiderstand, das ist Temperatur, das ist Hautfeuchtigkeit. Und über ein intelligentes Netzwerk, wir setzen da Bayes'sche Netze ein, werden diese Parameter übersetzt in einen emotionalen Zustand. Das funktioniert nur, wenn man das vorher trainiert hat. Wir haben dieses intelligente System trainiert, indem wir vorher Probanden den Handschuh angezogen haben und dann haben wir sie mit einem Spiel in verschiedene emotionale Zustände versetzt, so dass wir wissen, das sind die Emotionen und zu denen korrespondieren diese und jene verschiedenen physiologischen Parameter."
Mit den Bayes'schen Netzen beschreibt man unsicheres Wissen – beispielsweise Emotionen und die daraus möglichen Schlussfolgerungen. Die lassen sich in grafische Modelle umsetzen und auch dafür nutzen, Emotionen in Avataren sichtbar zu machen:
"Ich kann meine Emotionen sozusagen auf meinen Avatar übertragen. Wir haben darüber nachgedacht, ob das vielleicht ein Modell ist. Alle Leute reden heutzutage über Second Life: wenn ich meinen Avatar in Second Live emotional so reagieren lasse, wie ich emotional drauf bin, das könnte man durchaus machen. Ich zieh den Handschuh an, bewege mich in Second Life und wenn ich halt euphorisch bin, ist mein Avatar in Second Live auch euphorisch, weil er die Information aus dem Handschuh bekommt. Ich muss das nicht explizit steuern. Aber die Frage ging mehr in die Richtung, kann sozusagen mein Avatar, mein Agent auf meine Emotionen Rücksicht nehmen, kann er das beachten? Das führt uns in die Richtung der Adaptivität von Applikationen. Ich denke, dass dies der nächste Schritt sein wird, dass Dienste, zu denen für uns der Avatar eine Schnittstelle darstellt, sich unserer emotionalen Lage anpassen werden kann."
Abgesehen davon, dass biometrische und andere biologische Daten, etwa menschliche Emotionen, einem restriktiven Datenschutz unterliegen, wird sich die schöne bunte Welt der Avatare reduzieren auf das reine Werkzeug in der digitalen Welt. Es gelingt eben nur wenigen Visionären, sich den Blick in die Zukunft nicht mit Elementen der Gegenwart zu verbauen, sagt Christiane Luible vom Virtual Human Lab in Genf:
"Wir schleppen Avatare mit, die genauso aussehen wie wir selbst, die geklont sind, die Kleider haben, die Häuser haben, Schulen, Universitäten, Autos. Das sind eben die Bestandteile unserer Welt. Oder es wurde auch diskutiert, in Second live zum Arzt zu gehen. Warum? Ich denke, der Avatar ist einfach eine Erweiterung. Der Avatar ist eine Körpererweiterung, wie ich auch zum Beispiel ein Telefon hab. Das Telefon wurde erfunden, weil ich nicht so laut schreien kann. Der Avatar erfüllt andere Zwecke. Er vertritt uns in einem neuen Raum, aber er ist auch nur eine Erweiterung von uns selbst."
"Der Handschuh ist ausgestattet mit Sensoren zur Aufnahme von physiologischen Parametern, das sind Herzfrequenz, das ist Hautwiderstand, das ist Temperatur, das ist Hautfeuchtigkeit. Und über ein intelligentes Netzwerk, wir setzen da Bayes'sche Netze ein, werden diese Parameter übersetzt in einen emotionalen Zustand. Das funktioniert nur, wenn man das vorher trainiert hat. Wir haben dieses intelligente System trainiert, indem wir vorher Probanden den Handschuh angezogen haben und dann haben wir sie mit einem Spiel in verschiedene emotionale Zustände versetzt, so dass wir wissen, das sind die Emotionen und zu denen korrespondieren diese und jene verschiedenen physiologischen Parameter."
Mit den Bayes'schen Netzen beschreibt man unsicheres Wissen – beispielsweise Emotionen und die daraus möglichen Schlussfolgerungen. Die lassen sich in grafische Modelle umsetzen und auch dafür nutzen, Emotionen in Avataren sichtbar zu machen:
"Ich kann meine Emotionen sozusagen auf meinen Avatar übertragen. Wir haben darüber nachgedacht, ob das vielleicht ein Modell ist. Alle Leute reden heutzutage über Second Life: wenn ich meinen Avatar in Second Live emotional so reagieren lasse, wie ich emotional drauf bin, das könnte man durchaus machen. Ich zieh den Handschuh an, bewege mich in Second Life und wenn ich halt euphorisch bin, ist mein Avatar in Second Live auch euphorisch, weil er die Information aus dem Handschuh bekommt. Ich muss das nicht explizit steuern. Aber die Frage ging mehr in die Richtung, kann sozusagen mein Avatar, mein Agent auf meine Emotionen Rücksicht nehmen, kann er das beachten? Das führt uns in die Richtung der Adaptivität von Applikationen. Ich denke, dass dies der nächste Schritt sein wird, dass Dienste, zu denen für uns der Avatar eine Schnittstelle darstellt, sich unserer emotionalen Lage anpassen werden kann."
Abgesehen davon, dass biometrische und andere biologische Daten, etwa menschliche Emotionen, einem restriktiven Datenschutz unterliegen, wird sich die schöne bunte Welt der Avatare reduzieren auf das reine Werkzeug in der digitalen Welt. Es gelingt eben nur wenigen Visionären, sich den Blick in die Zukunft nicht mit Elementen der Gegenwart zu verbauen, sagt Christiane Luible vom Virtual Human Lab in Genf:
"Wir schleppen Avatare mit, die genauso aussehen wie wir selbst, die geklont sind, die Kleider haben, die Häuser haben, Schulen, Universitäten, Autos. Das sind eben die Bestandteile unserer Welt. Oder es wurde auch diskutiert, in Second live zum Arzt zu gehen. Warum? Ich denke, der Avatar ist einfach eine Erweiterung. Der Avatar ist eine Körpererweiterung, wie ich auch zum Beispiel ein Telefon hab. Das Telefon wurde erfunden, weil ich nicht so laut schreien kann. Der Avatar erfüllt andere Zwecke. Er vertritt uns in einem neuen Raum, aber er ist auch nur eine Erweiterung von uns selbst."