• Deutschlandfunk bei Facebook
  • Deutschlandfunk bei Twitter
  • Deutschlandfunk bei Google+
  • Deutschlandfunk bei Instagram

 
Seit 14:30 Uhr Nachrichten
StartseiteComputer und KommunikationBlinzeln, fuchteln, zeigen08.06.2013

Blinzeln, fuchteln, zeigen

Zukunftsalternativen für Tastatur, Maus und Touchscreen

Wischen, streichen, schieben: Die Tage der klassischen Gestensteuerung für Smartphones und Tablets könnten irgendwann gezählt sein. Jedenfalls erkennen Wissenschaftler einen Trend, nach dem der Mensch immer mehr selbst zum Eingabegerät wird – mithilfe von Kameras uns Sensoren.

Von Jan Rähm

Mithilfe eines sogenannten Neuropads kann zum Beispiel ein E-Book-Reader durch Augenzwinkern gesteuert werden.  (picture alliance / dpa / Hubert Link)
Mithilfe eines sogenannten Neuropads kann zum Beispiel ein E-Book-Reader durch Augenzwinkern gesteuert werden. (picture alliance / dpa / Hubert Link)
Mehr bei deutschlandradio.de

Links bei dradio.de:

Manuskript: Hirngespinste

Maximilian Schönherr: In der kommenden Woche wird Apple auf der Entwicklerkonferenz in San Francisco zeigen, ob es auf die Vorgaben der Konkurrenz auf dem Mobiltelefonmarkt reagiert. Während das iPad unter den Tablet-PCs uneingeschränkter Marktführer ist, kritisieren viele Nutzer des iPhone, dass Entwicklungen verschlafen wurden. Wir begeben uns nicht auf das Glatteis wilder Spekulationen, was die nächste Woche angeht, aber wir sehen uns einmal genauer an, wohin die Smartphone-Entwicklung geht. Mein Kollege Jan Rähm hat sich mit aktuellen Entwicklungen bei der Benutzerschnittstelle zwischen Mensch und diesen Geräten beschäftigt, also mit dem, was die Geräte so neuartig bedienbar macht. Zunächst, Jan Rähm, gibt es Kritik an Touchscreen und Maus?

Jan Rähm: Ja, auf jeden Fall. Die Kritik lautet, es ist seit vielen, vielen Jahrzehnten nicht wirklich etwas passiert. Denn ob Touchscreen oder Maus – das ist ja mehr oder weniger dasselbe. Außerdem sagen die Wissenschaftler, es gibt einen deutlichen Widerspruch bei Ein- und Ausgabe. Denn die Ausgabe von Daten erfolgt heute schon in Form - Gigabits pro Sekunde – von hochauflösendem Video. Die Eingabe dagegen erfolgt mehr oder weniger bitweise – per Maus, bei Touchpad, Touchscreen oder Tastatur. Aber sie sagen vorher, das wird sich innerhalb der nächsten Jahre massiv erhöhen durch den Einsatz von Sensoren und Kameras, die dann wiederum den Menschen beobachten. Und der wird dadurch zum sogenannten menschlichen Eingabegerät, also einem Human Interface. Außerdem wird unsere direkte Umgebung smart, zum Beispiel die Kleidung, in die Sensoren eingearbeitet wurden. Und deswegen sprechen Forscher in dieser ganzen Entwicklung von disappearing Devices, also Geräte, die verschwinden. Wir sind das Eingabegerät und kommunizieren direkt mit unseren mobilen Geräten.

Schönherr: Es gibt Forschungszentren, die sich mit diesen Themen auf wissenschaftlichem Niveau beschäftigen. Jan Rähm hat zwei davon besucht und sich drei Szenarien vorstellen lassen.


Beginn Beitrag:

Szenario 1: Hasso-Plattner-Institut an der Universität Potsdam. Patrick Baudisch, Leiter Fachgebiet Mensch-Computer-Interaktion. Projektname: Imaginary Interface – Imaginäre Schnittstelle:

"Ich trag jetzt hier einen Forschungsprototypen. Den nennen wir Imaginary Interface. Das ist ein ganz, ganz kleines Gerät. Wir denken, irgendwann wird es so groß werden wie ein Knopf. Und das ist auf meiner Brust jetzt hier und schaut nach vorne und erlaubt mir jetzt, meine Hände nach vorne auszustrecken. Ich mach das jetzt hier mal. Und ich kann jetzt mit meinen beiden Händen zusammen gestikulieren und räumliche Zusammenhänge beschreiben und kann damit einen Computer kontrollieren.

Ich habe in der Tasche mein tatsächliches Mobiltelefon. Das lege ich jetzt mal auf den Tisch … So ich tipp jetzt hier mal auf mein oberes linkes Fingerglied und sie sehen, dass auf meinem iPhone hier entsprechend genau diese Taste gedrückt worden ist. Das heißt, wir haben eine direkte Analogie zwischen den Teilen meiner Hand und den Teilen des Gerätes und das Ganze funktioniert deshalb, weil Leute, wie wir in Studien herausgefunden haben, ihr Mobiltelefon heute schon zum großen Teil auswendig können und auf die Art bestimmte Aktionen ausführen können, ohne das Gerät tatsächlich noch zu sehen dabei."


Szenario 2: Technische Universität Berlin, T-Labs, Hamed Ketabdar, wissenschaftlicher Mitarbeiter am Quality and Usability Lab. Projektname: MagiTact.

"Das ist eine neue Art der Interaktion mit mobilen Geräten, man könnte auch sagen ein Hack. Denn wir manipulieren den Kompass, der in einigen Handys eingebaut ist. Mit einem kleinen Magneten in der Hand lenken wir einfach den Kompass ab. Und diese Manipulation können wir messen und zur Steuerung verwenden.

Ich wähle einen Song in der Gitarren-App aus. Das ist wie Gitarren-Karaoke. Ich muss im richtigen Rhythmus die Saiten schlagen. Wenn nicht, verliere ich. Und schon ist das Spiel vorbei. Ich bin halt kein guter Gitarrenspieler. Aber die Idee funktioniert. Sie sehen's."


Szenario 3: Technische Universität Berlin, T-Labs, Jan-Niklas Antons, Wissenschaftlicher Mitarbeiter am Quality and Usability Lab, Projektname: Neuropad

"Wir sehen hier ein Headset, ein sogenanntes Neuro-Headset. Dabei werden über kleine Elektroden auf der Oberfläche des Kopfes elektrische Ströme gemessen. Diese Ströme können unter anderem von Gedanken verursacht werden, aber auch zum Beispiel von Augenbewegungen und natürlich auch von Aktivität im Gehirn. Diese Signale werden über Funk an ein iPad übertragen und auf diesem iPad werden diese Signale analysiert und so für den Nutzer verwendbar gemacht.

Wir haben hier den Nutzer. Der hat das Headset am Kopf angebracht. Die Daten werden an das iPad übertragen. Das iPad liegt vor ihm auf dem Tisch. Das iPad wertet die Daten nun in Echtzeit aus und den E-Book-Reader, den wir hier sehen, der wird gesteuert durch das Augenzwinkern. Wenn der Nutzer jetzt mit dem rechten Auge zwinkert, können wir sehen, dass das E-Book nach rechts umgeblättert wird, sprich die nächste Seite ist zu sehen. Das ermöglicht dem Nutzer somit, ohne seine Hände zu verwenden, das mobile Endgerät zu steuern."

Schönherr: Drei Beispiele von Prototypen für zukünftige Mobiltelefon-Steuerungen. Jan Rähm, inwieweit werden sich diese 'Forschungsspinnereien', wie man die ja auch nennen könnte, von denen es zurzeit unendlich viele gibt, in die seriöse Praxis der Massenproduktion einfinden?

Rähm: Also sie werden sich einfinden. Im Moment sehen wir einen ganz klaren Trend hin zu berührungsloser Interaktion. Aber es gibt auch noch eine neue Welle – oder es wird jetzt eine neue Welle der Miniaturisierung kommen. Denn wenn wir uns zurückerinnern: Bis zum Smartphone wurden die Telefone immer kleiner. Mit dem iPhone hat sich dieser Trend umgedreht und die Geräte wurden wieder immer größer. Heute haben wir Smartphones mit 20 oder mehr Zentimetern in der Bildschirmdiagonale.

Schönherr: Wie viel ist denn das ungefähr, wenn man sich das mit einer Hand vorstellt?

Rähm: Das ist also so ein Telefon, das die Handfläche mehr oder weniger komplett ausfüllt. Und jetzt wird es einen neuen Trend der Miniaturisierung geben. Die ersten Geräte haben wir schon gesehen. Und zwar smarte Uhren. Und die werden einen neuen Trend dazu einführen, dass es wieder kleiner und mobiler wird.

Schönherr: Die berührungslose Steuerung eines Smartphones ist im aktuellen Smartphone des Marktführers Samsung bereits zu sehen – also berührungslos scrollen zum Beispiel. Funktioniert die?

Rähm: Ja, die funktioniert. Also das, was Sie gerade ansprechen, dieses Scrollen, das funktioniert über eine Augensteuerung. In dem Telefon sitzt eine kleine Kamera, die beobachtet die Pupillen. Und wenn ich mit dem Blick auf dem Display des Telefons nach unten gehe, dann rutscht die Seite hinterher. Das funktioniert, ist aber ganz doll gewöhnungsbedürftig. Einfach weil: Es geht teilweise sehr ruckartig und es ist noch ein wenig ungewohnt. Aber solche Funktionen werden in nächster Zeit ... Außerdem gibt es auch noch Gesten im wirklichen Sinne, also Handgesten. Und da ist zum Beispiel eine, die ich sehr praktisch fand: Man wischt mit der Hand über das Handy – also man berührt es nicht, sondern geht nur mit der Hand oben über das Handy. Das Handy geht ganz kurz an, zeigt einem aktuelle Informationen auf diesem Bildschirm, zum Beispiel eingegangene E-Mails, die Uhrzeit oder auch anderes – und geht innerhalb von ein, zwei Sekunden wieder aus. Das ist eine sehr praktische Funktion, für die man sonst halt mindestens zweimal den Ein- und Ausschaltknopf drücken musste. Und das geht jetzt einfach per Fingerstreich sozusagen.

Schönherr: Ist also der Bereich Ein- und Ausgabe das, womit wir uns in Zukunft beschäftigen müssen und womit sich auch Apple beschäftigen muss?

Rähm: Viele deutet darauf hin, dass es genauso sein wird. Denn die Hardware in mobilen Telefonen oder in mobilen Geräten ist mehr oder weniger ausgereizt. Es gibt immer mehr Telefone mit vier bis acht Prozessorkernen, Arbeitsspeicher ist wirklich viel an Bord. Und auch der Massenspeicher, also da, wo die Daten dann hingespeichert werden, da wird es immer mehr. Das sind Gigabytes. Die Displays werden immer größer und hochauflösender. Und auch die Kameras. Da gibt es nicht viel neues. Aber keinen überwältigen Fortschritt, den gab es halt genau bei Ein- und Ausgabe. Und Mobiltelefone der Zukunft werden sich vor allen Dingen abgrenzen durch Innovationen bei der Benutzung, in der Benutzeroberfläche und möglicherweise auch bei der Ausgabe.

Das könnte sie auch interessieren

Entdecken Sie den Deutschlandfunk