Donnerstag, 25. April 2024

Archiv


Virtuelle Anprobe

Informationstechnologie. - Computermonitor und Kamera könnten beim Kleiderkauf den Spiegel ersetzen, so die Idee eines Projekts, das Forscher des Berliner Heinrich-Hertz-Instituts derzeit auf der Internationalen Funkausstellung Ifa zeigen. Der virtuelle Spiegel der Berliner tauscht auf Knopfdruck Farbe oder Aufdruck eines T-Shirts im Spiegelbild aus - ganz ohne Umziehen.

Von Jan Rähm | 03.09.2008
    Glaubt man den Forschern des Fraunhoferinstituts für Nachrichtentechnik, sind Männer wahre Shoppingmuffel. Rein in die Hose und wieder raus und mit der nächsten Jeans dasselbe Spiel - für die meisten Männer sicher ein Albtraum. Anna Hilsmann und ihre Kollegen vom Heinrich-Hertz-Institut haben deshalb ein neues System entwickelt, das die Anprobe vereinfachen soll.

    " Das ist unser virtueller Spiegel. Das ist ein großes Display, darüber ist eine Kamera montiert. Das Display zeigt das gespiegelte Bild der Kamera und wenn man sich jetzt mit unserem Prototyp-T-Shirt davor stellt - das ist ein grünes T-Shirt mit einem Linienmuster vorne drauf - dann wird im Spiegelbild die Farbe des T-Shirts im Spiegel ausgetauscht und man kann sich bestimmte Logos aussuchen die vorne auf das T-Shirt gemappt werden. Man kann sich dann vor dem Spiegel bewegen und das Logo bewegt sich mit, wie der Stoff sich verformt. "

    Vor dem Gerät steht also der Kunde - auf der Messe ein Besucher. Er zieht ein gras-grünes T-Shirt an. Es ist mit einem Bild bedruckt. Auf dem Display sieht er sich nun seitenverkehrt wie in einem richtigen Spiegel. Er winkt - sein Spiegelbild winkt zurück. Mit einem einfachen Druck auf den Touchscreen-Monitor kann der Besucher jetzt die Farbe des T-Shirts und den Aufdruck ändern. Dafür ist keine teure Spezialtechnik vonnöten. Für die virtuelle Anprobe reicht ein handelsüblicher PC, ein Display und eine Kamera. Die eigentliche Technologie steckt in der Software, die die Bewegung des Stoffes möglichst naturgetreu nachahmen muss.

    " An den Computer angeschlossen ist eine Kamera. Die nimmt das Bild auf, in dem sich derjenige, der das T-Shirt trägt befindet. Zunächst wird das T-Shirt erkannt aufgrund der Farbe ganz einfach. Dann finden wir auf dem T-Shirt die Textur. Auf die Textur wird ein 2D-Dreiecksgittermodell gelegt. Und dann kann anhand der Bewegung der einzelnen Vertex-Punkte in dem Mesh die Bewegung zurückgerechnet werden, die dieser Stoff hat. "

    Die Kamera nimmt im Abstand von wenigen Millisekunden zwei Bilder auf und überträgt sie an die Software. Die vergleicht beide Aufnahmen miteinander. Ein spezieller Bewegungsschätzungs-Algorithmus berechnet aus den Bildunterschieden die Deformation, also die Verformung des Textils und die des Musters. Die Deformation wird dann wiederum auf das ausgewählte Logo zurückgerechnet. So bewegt sich dieses Logo dann in dem manipulierten Spiegelbild wie zuvor das Original. Um die natürliche Bewegung glaubwürdig nachzubilden, mussten die Wissenschaftler zuvor erkunden, wie sich jeder einzelne Stoff verhält wenn er sich dehnt oder verschiebt. Das spezifische Verhalten jedes Stoffes ist auch der Grund, warum derzeit noch nicht jedes Kleidungsstück beliebig getauscht und virtuell anprobiert werden kann.

    " Im Moment ist es so, dass man genau dieses grüne T-Shirt anhaben muss und das System aufgrund der Farbe das T-Shirt erkennt und dann diese Textur auf dem T-Shirt erkennt und trägt. "

    Einfach schnell schauen, ob das gewählte T-Shirt zur Traumhose passt, ist also noch nicht ohne weiteres möglich. Dafür muss der Kunde dann doch in die Umkleidekabine.

    " Im Prinzip ist das ganze System anwendbar auch für andere Sachen. Wir hatten das System schon mal für Schuhe. Das stand auch wirklich in Geschäften. Da konnte sich der Kunde seine eigenen Schuhe designen, sich dann vor den Spiegel stellen und sich dann selber mit diesen Schuhen betrachten. Jetzt bei diesem Ifa-Prototypen geht es mit dem grünen T-Shirt mit dem Linienmuster drauf. Aber man müsste die Software einfach ein bisschen modifizieren für andere Anwendungen. Man muss natürlich vorher immer wissen, was man austauschen möchte an Kleidung und dafür muss man dann die Software modifizieren. "


    Also muss die Software noch mit mehr Stoffproben gefüttert werden. Zudem muss das System lernen, mit den individuellen Merkmalen jedes einzelnen Kleidungsstücks umzugehen. Jede Falte, jede Naht müssen Kamera und Computerprogramm erkennen und mit in die Berechnung einbeziehen. Doch die Forscher haben schon weitergedacht. Sie wollen in Zukunft nicht nur dem männlichen Shoppingmuffel die Qual der Kleiderwahl erleichtern, sondern im wahrsten Sinne des Wortes den Blick aufs eigene Ich ermöglichen.

    " Man könnte das zum Beispiel auch für Brillen anwenden. Da würde das auch Sinn machen, weil jemand der sich eine neue Brille kauft, im Prinzip seine Brille absetzen muss und dann nichts mehr sieht, wenn er schlecht sieht. Dann wäre das Ganze noch weiter zu modifizieren, dass man sich einfach mit irgendeinem Kleidungsstück davor stellen muss. Und dann werden wir mal sehen, wo's hingeht. "