Von Peter Welchering
Viele Hörgeräteträger kennen diese Situation: Da fallen sich bei einer Sitzung mehrere Redner ins Wort, und schon kann die eigene Hörhilfe nicht mehr genau die Richtung, aus der gesprochen wird und den Sprecher selbst unterscheiden. Das Hörgerät liefert einen vielstimmigen Klangteppich, auf dem man sich nicht mehr richtig orientieren kann. Der Grund: Konventionelle Hörgeräte nehmen den Schall auf und verstärken ihn. Gleichzeitig werden die lauten Nebengeräusche zwar begrenzt, aber nicht wirklich ausgefiltert. Außerdem verarbeitet das konventionelle Hörgerät die Tonhöhe nur unzureichend. An dieser Tonhöhe kann der Hörende aber nicht nur verschiedene Sprecher voneinander unterscheiden, sondern er kann auch die Nebengeräusche besser herausfiltern – gewissermaßen gezielt überhören. Dr. Torsten Dau vom Institut für medizinische Physik an der Universität Oldenburg.
Das spielt eine große Rolle für Sprachwahrnehmung zum Beispiel. In unserer Melodie verändert sich die empfundene Tonhöhe laufend mit der Zeit, und je nachdem, ob wir eine Frage stellen und uns unserem Partner gegenüber verhalten, verändert sich die Satz- und Sprachmelodie erheblich. Und was bis heute nicht genau geklärt ist: Wie die Unterschiede in der empfundenen Tonhöhe wie die eigentlich neuronal, also im Gehirn codiert sind und was letztendlich passiert im Gehirn, damit wir Tonhöhe unterscheiden können.
Schon die Tonhöhe eines Schallsignals enthält wichtige Informationen über das gesprochene Signal. Können diese Tonhöhen nicht richtig wahrgenommen werden, weil die Übertragungsfrequenz beispielsweise bei einem Telefongespräch nicht ausreicht und die Tonhöhen zu stark begrenzt werden müssen, leidet die Verständlichkeit insgesamt. Für einen Hörgeräteträger hört sich ein Telefongespräch deshalb oftmals extrem verrauscht an. Das starke Rauschen können auch konventionelle Hörgeräte noch relativ gut herausfiltern, aber die Verständlichkeit des übertragenen Signals verbessert sich nur unerheblich. Im Gegenteil die Stimme des Sprechenden klingt oftmals ganz blechern. Hohe Stimmen sind nach den bisherigen Erkenntnissen der Geräuschforscher nicht so sehr betroffen wie tiefe Stimmlagen. Für Torsten Dau Anlass, einmal genau nachzuforschen, mit welchem Filterverfahren hier Menschen mit normalem Hörvermögen arbeiten. Und er fand heraus.
Bei der auditorischen Objekterkennung, um eben verschiedene Quellen zu trennen, nutzt man eben auch die Tatsache, dass diese Quellen unterschiedlichen Pitch hervorrufen, also unterschiedliche Tonhöhe, und sei es, dass ein männlicher und weiblicher Sprecher gleichzeitig sprechen. Um Schwerhörenden zu helfen, muss man eben auch versuchen, diese unterschiedlichen Extrakte oder Charakteristiken, wie unterschiedliche Tonhöhen, einfließen zu lassen in intelligente Hörgerätealgorithmen, um Menschen zu helfen, in komplexeren Situationen sich zu orientieren.
Bei der Entwicklung des digitalen Hörgeräts kommt es dann darauf an, die Nebengeräusche herauszufiltern, ohne die Frequenzen der Sprache zu verändern. Das geht nur, wenn man genau weiß, aus welchen Tonhöhen sich die Sprache zusammensetzt. Die Hör-Software richtet sich nach dem Vorbild der Umsetzung von akustischen Signalen in Nervenimpulsmustern beim normal hörenden Menschen. Das heißt die Signale werden in einem mehrstufigen Prozess getrennt nach Richtung und Tonhöhe aufbereitet. Und daraus wird ein einheitliches Signal errechnet, das als Nervenimpulsmuster weitergegeben wird. Dazu haben die Oldenburger Forscher genau untersucht, wie der Schall im Innenohr kodiert wird und auf welche Weise die Signale dann zur Weiterverarbeitung an das Gehirn weitergereicht werden. Hier setzt ihr Hörgerätealgorithmus der Oldenburger Forschergruppe an. Er verarbeitet die zeitliche Abfolge und die Tonhöhe der Signale so, dass die Signale der sprechenden Personen entzerrt werden. Das digitale Hörgerät soll schwerhörigen Menschen dazu verhelfen, wieder ohne Verzerrungen und Klangverfälschungen ganz trennscharf hören zu können.
Viele Hörgeräteträger kennen diese Situation: Da fallen sich bei einer Sitzung mehrere Redner ins Wort, und schon kann die eigene Hörhilfe nicht mehr genau die Richtung, aus der gesprochen wird und den Sprecher selbst unterscheiden. Das Hörgerät liefert einen vielstimmigen Klangteppich, auf dem man sich nicht mehr richtig orientieren kann. Der Grund: Konventionelle Hörgeräte nehmen den Schall auf und verstärken ihn. Gleichzeitig werden die lauten Nebengeräusche zwar begrenzt, aber nicht wirklich ausgefiltert. Außerdem verarbeitet das konventionelle Hörgerät die Tonhöhe nur unzureichend. An dieser Tonhöhe kann der Hörende aber nicht nur verschiedene Sprecher voneinander unterscheiden, sondern er kann auch die Nebengeräusche besser herausfiltern – gewissermaßen gezielt überhören. Dr. Torsten Dau vom Institut für medizinische Physik an der Universität Oldenburg.
Das spielt eine große Rolle für Sprachwahrnehmung zum Beispiel. In unserer Melodie verändert sich die empfundene Tonhöhe laufend mit der Zeit, und je nachdem, ob wir eine Frage stellen und uns unserem Partner gegenüber verhalten, verändert sich die Satz- und Sprachmelodie erheblich. Und was bis heute nicht genau geklärt ist: Wie die Unterschiede in der empfundenen Tonhöhe wie die eigentlich neuronal, also im Gehirn codiert sind und was letztendlich passiert im Gehirn, damit wir Tonhöhe unterscheiden können.
Schon die Tonhöhe eines Schallsignals enthält wichtige Informationen über das gesprochene Signal. Können diese Tonhöhen nicht richtig wahrgenommen werden, weil die Übertragungsfrequenz beispielsweise bei einem Telefongespräch nicht ausreicht und die Tonhöhen zu stark begrenzt werden müssen, leidet die Verständlichkeit insgesamt. Für einen Hörgeräteträger hört sich ein Telefongespräch deshalb oftmals extrem verrauscht an. Das starke Rauschen können auch konventionelle Hörgeräte noch relativ gut herausfiltern, aber die Verständlichkeit des übertragenen Signals verbessert sich nur unerheblich. Im Gegenteil die Stimme des Sprechenden klingt oftmals ganz blechern. Hohe Stimmen sind nach den bisherigen Erkenntnissen der Geräuschforscher nicht so sehr betroffen wie tiefe Stimmlagen. Für Torsten Dau Anlass, einmal genau nachzuforschen, mit welchem Filterverfahren hier Menschen mit normalem Hörvermögen arbeiten. Und er fand heraus.
Bei der auditorischen Objekterkennung, um eben verschiedene Quellen zu trennen, nutzt man eben auch die Tatsache, dass diese Quellen unterschiedlichen Pitch hervorrufen, also unterschiedliche Tonhöhe, und sei es, dass ein männlicher und weiblicher Sprecher gleichzeitig sprechen. Um Schwerhörenden zu helfen, muss man eben auch versuchen, diese unterschiedlichen Extrakte oder Charakteristiken, wie unterschiedliche Tonhöhen, einfließen zu lassen in intelligente Hörgerätealgorithmen, um Menschen zu helfen, in komplexeren Situationen sich zu orientieren.
Bei der Entwicklung des digitalen Hörgeräts kommt es dann darauf an, die Nebengeräusche herauszufiltern, ohne die Frequenzen der Sprache zu verändern. Das geht nur, wenn man genau weiß, aus welchen Tonhöhen sich die Sprache zusammensetzt. Die Hör-Software richtet sich nach dem Vorbild der Umsetzung von akustischen Signalen in Nervenimpulsmustern beim normal hörenden Menschen. Das heißt die Signale werden in einem mehrstufigen Prozess getrennt nach Richtung und Tonhöhe aufbereitet. Und daraus wird ein einheitliches Signal errechnet, das als Nervenimpulsmuster weitergegeben wird. Dazu haben die Oldenburger Forscher genau untersucht, wie der Schall im Innenohr kodiert wird und auf welche Weise die Signale dann zur Weiterverarbeitung an das Gehirn weitergereicht werden. Hier setzt ihr Hörgerätealgorithmus der Oldenburger Forschergruppe an. Er verarbeitet die zeitliche Abfolge und die Tonhöhe der Signale so, dass die Signale der sprechenden Personen entzerrt werden. Das digitale Hörgerät soll schwerhörigen Menschen dazu verhelfen, wieder ohne Verzerrungen und Klangverfälschungen ganz trennscharf hören zu können.