Dienstag, 30. April 2024

Archiv

Medizintechnik
Berührungslose Bildschirme für die Intensivstation

Bloß nicht anfassen: Touchscreens und Tastaturen sind Brutstätten für Keime. Das ist vor allem in Krankenhäusern ein Problem. Wissenschaftler des Fraunhofer Heinrich-Hertz-Instituts in Berlin tüfteln deshalb an einem berührungslosen Bildschirm, der durch Gesten und Sprache gesteuert wird.

Von Jochen Steiner | 04.01.2017
    Blick auf ein leeres Krankenbett in einem Krankenhaus.
    Berührungslose Computer-Interfaces sollen die Arbeit des Krankenhauspersonals erleichtern (dpa / Sebastian Kahnert)
    Der Psychologe Paul Chojecki vom Fraunhofer Heinrich Hertz Institut in Berlin beschäftigt sich seit vielen Jahren mit Interaktionen zwischen Mensch und Maschine.
    Jetzt steht er vor einem Monitor, der auf den ersten Blick aussieht wie ein normaler Flachbildschirm. Doch das Gerät kann mehr.
    "Diesen Bildschirm haben wir mit zusätzlichen Kameras ausgestattet. Wir sehen oberhalb eine Kamera, die erkennt Nutzerrollen, also ist es zum Beispiel ein Arzt oder eine Schwester. Dann haben wir unterhalb des Monitors zwei zusätzliche Kamerasysteme, das sind sogenannte 3D-Kameras. Mit denen können wir direkt im Nahfeld vor dem Monitor die Handbewegung des Nutzers erfassen, ohne dass er den Monitor berühren muss."
    Diese berührungslose Steuerung ist zum Beispiel auf einer Intensivstation von Vorteil, denn je weniger Gegenstände das Personal anfassen muss, desto geringer die Gefahr, dass Keime verbreitet werden.
    Der etwa 32 Zoll große Monitor besitzt noch eine weitere Kamera, die in den Raum gerichtet ist und alles bis zu einer Entfernung von vier Metern erfasst. Die berührungslose Bedienung ist keine neue Erfindung, doch die Fraunhofer-Forscher haben sie für ihren Bildschirm angepasst und wollen mit seiner Hilfe die Arbeit des Krankenhauspersonals ein Stück weit erleichtern. Chojecki:
    "Eines der Probleme ist, dass es dort oft sehr viele verschiedene Geräte gibt, verschiedene Hersteller, verschiedenen Oberflächen, die der Benutzer sieht. Und wenn es auf der Intensivstation zu Problemen kommt, Alarme auftauchen - das sind stressige Situationen. Und dann kann man sich vorstellen, wenn ich zehn Bildschirme vor mir habe, suche ich nach der Information, die ich brauche. Wir haben versucht, dass alles auf einen Bildschirm zu bringen, sodass der Benutzer nicht suchen muss."
    Der Monitor zeigt die Daten nach Themen sortiert in unterschiedlichen Registerkarten an, die das Personal mit einem Fingerzeig öffnen kann. Er liefert zum Beispiel Informationen zu Herzfrequenz, Temperatur oder Blutwerten, aber auch zur Medikation oder Diagnosen. Im besten Fall sind alle Patientendaten darüber abrufbar. Diese Daten müssen auf einem Rechner im Krankenhaus gebündelt werden, auf den der Multifunktions-Monitor dann zugreift.
    Intelligenter Alarm schlagen
    Geht es dem Patienten plötzlich schlechter, zeigt der Bildschirm bei einem Notfall natürlich auch Alarme an, allerdings sollten es weniger sein als heutzutage auf der Intensivstation, erläutert Paul Chojecki:
    "Unsere Partner von der Uniklinik Aachen entwickeln zusätzliche Logiken und intelligente Alarme, so nennen wir die, die es ermöglichen, dass ein Alarm nicht nur von einem bestimmten Schwellenwert eines bestimmten Gerätes ausgelöst wird, sondern mehrere Werte miteinander kombiniert ergeben einen Gefahrenzustand und erst dann kommt der Alarm."
    Der Monitor erkennt auch, wie weit das Personal entfernt ist. Betritt bei einem Alarm eine Ärztin das Patientenzimmer, werden ihr zunächst nur einige wenige, aber wichtige Informationen groß angezeigt. Chojecki:
    "Über die Annäherung an das Display steuert es die Anzahl der Informationen und die Art, wie diese Informationen dargestellt werden. Wenn man näher heran kommt, kommt man in die sogenannte Mittelansicht, und in dieser Distanz kann man schon mit der Hand interagieren und bestimmte Informationen abrufen."
    Computer soll natürliche Gesten erkennen
    Die Mediziner können also am Bett stehen und den etwa ein Meter fünfzig entfernten Monitor von dort bedienen - eine gewisse Arbeitserleichterung. Dabei können sie nicht nur den Zeigefinger benutzen, sondern auf einige bestimmte Gesten zurückgreifen.
    "Es gibt auch sogenannte Short-Cuts, wie man sie auch von anderen PC-Systemen kennt. Zum Beispiel diese offene Hand mit allen fünf Fingern gespreizt, das ist unsere Geste für 'nach Hause springen' oder auf diese Übersicht. Genauso diese Telefon-Geste, die man vielleicht aus anderen Kontexten kennt, die springt zu dem Telefon-Interface, wo man einen Experten, einen Kollegen per Videoanruf hinzuziehen kann."
    Der Bildschirm lässt sich außerdem mit einfachen Sprachbefehlen bedienen. Und über einen Lautsprecher sind die gewünschten Informationen auch zu hören. Die Lautstärke ist ebenfalls über Gesten steuerbar. Paul Chojecki:
    "Ich kann den Monitor leise und laut stellen durch die Geste, dass ich meinen Finger vor meinen Mund halte oder indem ich meine Hand ans Ohr halte und so tue, als ob ich schwer hören kann."
    Die Fraunhofer-Forscher wollen ihren Bildschirm nun an einer Simulationspuppe an der Uniklinik Aachen testen.