Ludwig van Beethovens 5. Symphonie zeichnet sich unter anderem durch einen besonders hohen Anteil an Höhen aus, weshalb Schwerhörige die Musik nur dumpf wahrnehmen. Und zwar auch beim Einsatz gängiger Hörgeräte. Das schmälert nicht nur den musikalischen Genuss, es mindert vor allem die Verständlichkeit der Sprache.
Das liegt daran, weil das Sprachspektrum für unsere Umgangssprache davon lebt, dass Konsonanten wie Zischlaute, fff, sch, t und so was, außerordentlich wichtig sind für das Verständnis von Sprache und deshalb mit übertragen werden müssen. Bei einem Gerät mit einem normalen Frequenzgang, der in der Regel so bis 5800 Hertz geht, werden diese Konsonanten nicht mit übertragen.
Erklärt Michael Bulk von der Firma Audio Service in Herford. Hilfe soll das weltweit erste HiFi-Hörgerät bieten.
Der entscheidende Vorteil ist, dass dieses Gerät einen erweiterten Hochtonfrequenzgang bis über acht Kilohertz hat, und das bedeutet für den Schwerhörenden, dass er besonders gut damit verstehen kann, weil eben hochfrequente Konsonanten klar und deutlich übertragen werden. Die sind außerordentlich nützlich für das Verstehen im Störgeräusch.
Eine spezielle Software im Hörgerät verstärkt gezielt die Frequenzbereiche zwischen sechs und acht Kilohertz und sorgt so für glasklaren Klang, brillante Höhen und satte Bässe. Nicht nur bei Musik, wie die Entwickler versichern, sondern auch beim Gespräch auf belebten Straßen - also inmitten von Störgeräuschen! Genau das ist ja eines der Hauptprobleme beim Entwickeln digitaler Hörhilfen. Wie unterscheidet die Software zwischen wichtigem und unwichtigem Schall? Auf einer Party soll das Gespräch des Gegenübers verstärkt und verstanden werden, nicht aber das übrige Stimmengewirr. Eine neue Lösung schlägt die Schweizer Firma Phonak GmbH vor. Bevor der Schall verstärkt wird, zerlegt zunächst einmal eine Software...
...die Hörsituation in vier verschiedene Grundsituationen. Das ist einmal die Situation "Hören in Ruhe", "Sprache im Lärm" oder "Nur Lärm" oder die Situation "Musik". Und diese Klassifizierungsmerkmale sorgen dafür, dass wir zielgenau in die entsprechenden Programme hinein gleiten und dem Menschen, der das Hörgerät trägt, das gute Gefühl geben, klar und deutlich im Störgeräusch zu verstehen oder Musik breitbandig genießen zu können.
Im Mittelpunkt steht dabei eine Software - sagt Friedrich Bock von der Phonak GmbH - die die jeweilige Hörsituation an typischen Pegel- und Frequenzmustern erkennt.
Die Struktur zwischen Musik und LKW ist eine völlig unterschiedliche, das heißt in Frequenz und Pegel - Pegeldurchschnitt, Frequenzdurchschnitt, aber auch die Fluktuation der Frequenz und des Pegels, lassen sehr genau Auswertungen zu, um zwischen Sprache und Störgeräuschen zu unterscheiden.
Anschließend schaltet sich automatisch das entsprechende Programm ein, niemand muss sein Hörgerät verstellen, wenn er von einer lauten Straße in den ruhigen Konzertsaal wechselt. Neben diesem System präsentiert Phonak noch SmartLink, eine Kommunikationsplattform, die unter anderem digitale Hörgeräte per Funkmikrofon-Funktion verbindet oder eine drahtlose Verbindung zwischen Hörgerät und Handy aufbaut.
Mit einem solchen Funksystem kann man Handys ankoppeln wie über einen Bluetooth-Sender oder Bluetooth-Empfänger, und wir haben dadurch die Möglichkeit, das Handysignal direkt per Funk in die Hörgeräte einzuspeisen, so dass man das Hinhalten des Handys auf das Hörgerät vermeiden kann und das Signal nun plötzlich binaural, also beidohrig, im Ohr hat.
Um die binaurale Signalverarbeitung bemüht sich auch der Siemens AG, die in Frankfurt das weltweit erste Stereo-Hörgerät vorgestellt hat. Dabei geht es um ein altbekanntes leidiges Problem: Ist jemand einseitig schwerhörig, dreht er üblicherweise während eines Gesprächs sein gesundes Ohr in Richtung des Gesprächspartners. Spricht ihn nun jemand auf dem tauben Ohr an, hört er nichts. Beim Siemens-Hörsystem Acuris ist das anders: Der Schalleindruck auf dem tauben Ohr wird von einem eigenen Hörgerät registriert und über einen Langwellensender an das Hörgerät des anderen Ohres überspielt. Jörg Rekopf von der Siemens AG, München.
Das läuft technisch so ab, dass Sie natürlich in jedem Hörsystem auf jeder Seite einen eigenen Prozessor haben und eine eigene Analyse des Signals, das im Ohr anliegt, und Sie haben dann eine Entscheidungsmatrix und anhand dieser Entscheidungsmatrix entscheiden Sie dann, wie beide Hörsysteme gesteuert werden.
Einseitig Taube hören auf einem Ohr, was sie normalerweise auf beiden hören würden. Folge: Sie können besser an Unterhaltungen teilnehmen, sie fühlen sich sicherer, weil sie die akustische Situation etwa auf einer Straße besser einschätzen können - und sie genießen Maria Callas wieder in voller Schönheit - stereo, auch wenn ein Ohr taub ist.
Das liegt daran, weil das Sprachspektrum für unsere Umgangssprache davon lebt, dass Konsonanten wie Zischlaute, fff, sch, t und so was, außerordentlich wichtig sind für das Verständnis von Sprache und deshalb mit übertragen werden müssen. Bei einem Gerät mit einem normalen Frequenzgang, der in der Regel so bis 5800 Hertz geht, werden diese Konsonanten nicht mit übertragen.
Erklärt Michael Bulk von der Firma Audio Service in Herford. Hilfe soll das weltweit erste HiFi-Hörgerät bieten.
Der entscheidende Vorteil ist, dass dieses Gerät einen erweiterten Hochtonfrequenzgang bis über acht Kilohertz hat, und das bedeutet für den Schwerhörenden, dass er besonders gut damit verstehen kann, weil eben hochfrequente Konsonanten klar und deutlich übertragen werden. Die sind außerordentlich nützlich für das Verstehen im Störgeräusch.
Eine spezielle Software im Hörgerät verstärkt gezielt die Frequenzbereiche zwischen sechs und acht Kilohertz und sorgt so für glasklaren Klang, brillante Höhen und satte Bässe. Nicht nur bei Musik, wie die Entwickler versichern, sondern auch beim Gespräch auf belebten Straßen - also inmitten von Störgeräuschen! Genau das ist ja eines der Hauptprobleme beim Entwickeln digitaler Hörhilfen. Wie unterscheidet die Software zwischen wichtigem und unwichtigem Schall? Auf einer Party soll das Gespräch des Gegenübers verstärkt und verstanden werden, nicht aber das übrige Stimmengewirr. Eine neue Lösung schlägt die Schweizer Firma Phonak GmbH vor. Bevor der Schall verstärkt wird, zerlegt zunächst einmal eine Software...
...die Hörsituation in vier verschiedene Grundsituationen. Das ist einmal die Situation "Hören in Ruhe", "Sprache im Lärm" oder "Nur Lärm" oder die Situation "Musik". Und diese Klassifizierungsmerkmale sorgen dafür, dass wir zielgenau in die entsprechenden Programme hinein gleiten und dem Menschen, der das Hörgerät trägt, das gute Gefühl geben, klar und deutlich im Störgeräusch zu verstehen oder Musik breitbandig genießen zu können.
Im Mittelpunkt steht dabei eine Software - sagt Friedrich Bock von der Phonak GmbH - die die jeweilige Hörsituation an typischen Pegel- und Frequenzmustern erkennt.
Die Struktur zwischen Musik und LKW ist eine völlig unterschiedliche, das heißt in Frequenz und Pegel - Pegeldurchschnitt, Frequenzdurchschnitt, aber auch die Fluktuation der Frequenz und des Pegels, lassen sehr genau Auswertungen zu, um zwischen Sprache und Störgeräuschen zu unterscheiden.
Anschließend schaltet sich automatisch das entsprechende Programm ein, niemand muss sein Hörgerät verstellen, wenn er von einer lauten Straße in den ruhigen Konzertsaal wechselt. Neben diesem System präsentiert Phonak noch SmartLink, eine Kommunikationsplattform, die unter anderem digitale Hörgeräte per Funkmikrofon-Funktion verbindet oder eine drahtlose Verbindung zwischen Hörgerät und Handy aufbaut.
Mit einem solchen Funksystem kann man Handys ankoppeln wie über einen Bluetooth-Sender oder Bluetooth-Empfänger, und wir haben dadurch die Möglichkeit, das Handysignal direkt per Funk in die Hörgeräte einzuspeisen, so dass man das Hinhalten des Handys auf das Hörgerät vermeiden kann und das Signal nun plötzlich binaural, also beidohrig, im Ohr hat.
Um die binaurale Signalverarbeitung bemüht sich auch der Siemens AG, die in Frankfurt das weltweit erste Stereo-Hörgerät vorgestellt hat. Dabei geht es um ein altbekanntes leidiges Problem: Ist jemand einseitig schwerhörig, dreht er üblicherweise während eines Gesprächs sein gesundes Ohr in Richtung des Gesprächspartners. Spricht ihn nun jemand auf dem tauben Ohr an, hört er nichts. Beim Siemens-Hörsystem Acuris ist das anders: Der Schalleindruck auf dem tauben Ohr wird von einem eigenen Hörgerät registriert und über einen Langwellensender an das Hörgerät des anderen Ohres überspielt. Jörg Rekopf von der Siemens AG, München.
Das läuft technisch so ab, dass Sie natürlich in jedem Hörsystem auf jeder Seite einen eigenen Prozessor haben und eine eigene Analyse des Signals, das im Ohr anliegt, und Sie haben dann eine Entscheidungsmatrix und anhand dieser Entscheidungsmatrix entscheiden Sie dann, wie beide Hörsysteme gesteuert werden.
Einseitig Taube hören auf einem Ohr, was sie normalerweise auf beiden hören würden. Folge: Sie können besser an Unterhaltungen teilnehmen, sie fühlen sich sicherer, weil sie die akustische Situation etwa auf einer Straße besser einschätzen können - und sie genießen Maria Callas wieder in voller Schönheit - stereo, auch wenn ein Ohr taub ist.