Donnerstag, 02. Mai 2024

Archiv


Bildschirm zum Anfassen

Computertechnik. - Die Zeiten, in denen ein Computer nur per Texteingabe zu bedienen war, sind vorbei: Bunte Desktops, die auf Mausklicks gehorchen, machen die Arbeit einfacher. Allerdings nur dann, wenn man auch sehen kann. Für Blinde ist mit dem Siegeszug der grafischen Oberflächen die Bedienung eines PCs eher schwieriger geworden. Ein tastbares Display soll das ändern.

Von Michael Gessat | 13.05.2009
    Reine Textverarbeitung am Computer, das ist für einen Blinden kein Problem. Schreiben kann er nämlich, wenn er das Zehnfinger-System gelernt hat, ebenso gut und schnell wie ein Sehender. Und Texte kann er sich von einem sogenannten Screen-Reader, einer automatischen Sprachausgabe, mehr oder weniger wohlklingend vorlesen lassen. Oder er liest selber, mit den Fingern nämlich und einem speziellen Ausgabegerät unterhalb der normalen Tastatur, das die Zeichen in Braille, der internationalen Blindenschrift darstellt.

    "So eine Braille-Zeile ist schon sehr hilfreich, aber typische Anwendungen wie Webseiten mit grafischen Elementen, Excel-Tabellen, Excel-Diagramme können nur relativ unvollständig wiedergegeben werden, weil die Braille-Zeile nur zeilenorientiert arbeitet und somit nur schwer ein Gesamtüberblick möglich ist."

    Uwe Grotz ist Vorstand der Metec AG. Das Stuttgarter Unternehmen ist einer der zehn Partner aus Industrie und Wissenschaft beim Forschungsprojekt HyperBraille. Finanziell gefördert wird das Projekt vom Bundesministerium für Wirtschaft und Technologie. Zu sehen gibt es beim "HyperBraille"-Prototyp nicht allzu viel: Ein schlichter Kasten aus Metall von der Größe eines Schuhkartons, im vorderen Bereich zehn ergonomisch angeordnete Tasten; hinten ein Kabel für die Stromversorgung und eines für die Verbindung zum PC. Aber zu fühlen gibt es etwas auf der Oberseite, und zwar ein Tastdisplay:

    "Das Braille-Flächendisplay besteht aus 7200 Stiften, das heißt, es sind 60 Zeilen mit je 120 Stiften. Die Stifte werden durch Piezo-Biegewandler bewegt und 0,7 Millimeter herausgeschoben. Und so kann man Bilder entstehen lassen, Tabellen, Grafiken, aber auch Brailleschrift. Die Oberfläche selber ist mit Sensoren ausgestattet, und dadurch ist eine taktile Rückmeldung möglich über die Fingerposition, dadurch entsteht eine Interaktion mit der Software."

    Mit der Anwendungssoftware, vor allem aber mit der dazwischengeschalteten "HyperBraille"-Software. Die sorgt nämlich dafür, dass die von einem normalen Windows-Programm ausgegebenen Informationen erst einmal in eine für das Ertasten geeignete Form gebracht werden, erklärt Metec-Projektmanager Volker Hantschel:

    "Der Grundgedanke ist dabei immer das, dass man erst einmal versucht, dem Blinden einen gewissen Überblick zu geben. Ihm sofort alles zu zeigen, das geht nicht. Man hat jetzt hier nur 120 mal 60 Pixel, und das auch nur schwarzweiß sozusagen, das heißt, man muss sich immer auf das Wesentliche reduzieren."

    Das Wesentliche, das sind in der ersten Überblicksansicht also einfach die Konturen der Programmfenster oder die Konturen von bestimmten Bereichen auf einer Webseite. Und anschließend kann der Blinde per Fingerklick in die Details hineinzoomen. Und dann zum Beispiel die verschieden hohen Balken in einem Excel-Diagramm ertasten. Die Beschriftung kann er in Braille lesen, und als Alternative gibt es auch immer die Sprachausgabe.

    "Balkendiagramm. 10947 Baden-Württemberg. 12520 Bayern. 3416 Berlin. 2535 Brandenburg."

    Der Wechsel vom herkömmlichen Linienlesen mit einem oder zwei Fingern bei der Braille-Zeile zum Explorieren mit zwei Händen beim "HyperBraille"-Display bedeutet für einen blinden PC-Anwender einen enormen Zuwachs an aufnehmbarer Information, aber auch eine neue Lern- und Übungsphase. Noch ist "HyperBraille" ein Prototyp, an dem weiter gearbeitet wird:

    "Das sind Dinge, die im Moment im Bedienkonzept noch getestet werden. Da ist vor allem Marburg und die TU Dresden mit dabei. Und dort entstehen diese Bedienkonzepte, wie es am Besten ist, wie man am Besten die Taste drückt, wo die Tasten sein müssen, ob überhaupt externe Tasten sein müssen. Das sind an sich die Aufgaben, die in den nächsten eineinhalb Jahren noch abgearbeitet werden. Wir haben jetzt einfach einen Stand, wo man so was mal ausprobieren kann, und die bessere oder die genaue Lösung, die muss jetzt in nächster Zeit entstehen."