"Wenn viele Menschen gleichzeitig reden, kommen alle Stimmen auch gleichzeitig ins Ohr. Dort werden sie zu einem Klangbrei vermischt. Das erlebt man typischerweise bei einer Cocktail-Party, weshalb Forscher das auch als Cocktailparty-Problem bezeichnen."
Der Hirnforscher Nima Mesgarani von der Columbia University in New York. Er erforscht, wie Schall im Gehirn verarbeitet wird und wie es dem Hörzentrum gelingt, Sprachinformationen einzelner Stimmen aus einem Stimmengewirr herauszufiltern. Normal hörende Menschen schaffen das mehr oder weniger gut. Menschen mit einem Hörgerät scheitern aber in der Regel an dieser Aufgabe.
Der Hirnforscher Nima Mesgarani von der Columbia University in New York. Er erforscht, wie Schall im Gehirn verarbeitet wird und wie es dem Hörzentrum gelingt, Sprachinformationen einzelner Stimmen aus einem Stimmengewirr herauszufiltern. Normal hörende Menschen schaffen das mehr oder weniger gut. Menschen mit einem Hörgerät scheitern aber in der Regel an dieser Aufgabe.
"Bei Menschen, die schlecht hören, arbeiten die Stimmenfilter des Gehirns nicht mehr trennscharf genug. Das Gehirn bekommt dann nur noch verwaschene Informationen, so dass es ihm schwer fällt, verschiedene Stimmen zu differenzieren."
Mit künstlicher Intelligenz besser hören
Nima Mesgarani und Kollegen arbeiten an einer Lösung für dieses Problem. Die Idee: Hörgeräte übernehmen selbst die Rolle, einzelne Stimmen für den Nutzer herauszuheben. Dafür müsste die Technik zum einen in der Lage sein, den mit einem Mikrofon aufgenommenen Schall in mehrere Kanäle mit getrennten Stimmen aufzuteilen.
Zum anderen müssten die Geräte erkennen, auf welche der Stimmen das Gehirn gerade seine Aufmerksamkeit richtet, um diese Stimme dann gezielt zu verstärken. Beides ist möglich – mit Hilfe künstlicher Intelligenz, wie die Forscher in einer Studie im Fachmagazin "Science Advances" berichten. Für die Stimmentrennung entwickelten sie einen neuartigen Algorithmus, der in Echtzeit arbeitet.
"Wir nehmen das Sprachsignal, in dem alle Stimmen enthalten sind, und lassen es von einer lernenden, künstlichen Intelligenz in einen viel-dimensionalen Raum übertragen. Dieser rein mathematisch definierte Raum hat die Eigenschaft, dass die einzelnen Stimmen darin unterscheidbar werden. Der Algorithmus kann darin Klangbestandteile gruppieren, so das klar wird: all diese Teile gehören zu einem, all jene zu einem anderen Sprecher."
Auf diese Weise können Stimmen isoliert und die zugehörigen Audiodaten getrennt weiterverarbeitet werden. Auch die zweite Methode, mit der die Forscher arbeiten, setzt auf künstliche Intelligenz. In früheren Studien hatte Nima Mesgarani schon gezeigt: Wenn man Hirnwellen aus dem Hörzentrum mit Elektroden abgreift, können selbstlernende Algorithmen aus den Hirnstrommustern erkennen, welchen Klängen beziehungsweise welcher Stimme das Gehirn gerade seine Aufmerksamkeit widmet. So eine Funktionalität könnte sich eines Tages auch in ein Hörgerät integrieren lassen.
"Es ist möglich, die Hirnwellen aus dem Hörzentrum eines Menschen mit all den Klangquellen aus der Umwelt abzugleichen und dann jene herauszugreifen, die den Hirnstrommustern am besten entspricht. Diese kann man dann gezielt verstärken. Und so könnte das System der Person helfen, jene Stimme besser zu hören, der sie auch folgen will."
Dass das Konzept funktioniert, zeigten Versuche mit drei normal hörenden Probanden, denen im Rahmen einer Epilepsie-Behandlung schon Elektroden ins Hirn eingesetzt worden waren. Die Forscher spielten ihnen das Gemisch einer Frauen- und einer Männerstimme vor.
Die Probanden sollten erst der Männer-, dann der Frauenstimme ihre Aufmerksamkeit widmen. Das System konnte das tatsächlich anhand der Hirnstrommuster erkennen und passte entsprechend das Lautstärkeverhältnis der Stimmen zueinander an. Erst war die Männerstimme lauter zu hören, dann die Frauenstimme.
"Wir nehmen das Sprachsignal, in dem alle Stimmen enthalten sind, und lassen es von einer lernenden, künstlichen Intelligenz in einen viel-dimensionalen Raum übertragen. Dieser rein mathematisch definierte Raum hat die Eigenschaft, dass die einzelnen Stimmen darin unterscheidbar werden. Der Algorithmus kann darin Klangbestandteile gruppieren, so das klar wird: all diese Teile gehören zu einem, all jene zu einem anderen Sprecher."
Auf diese Weise können Stimmen isoliert und die zugehörigen Audiodaten getrennt weiterverarbeitet werden. Auch die zweite Methode, mit der die Forscher arbeiten, setzt auf künstliche Intelligenz. In früheren Studien hatte Nima Mesgarani schon gezeigt: Wenn man Hirnwellen aus dem Hörzentrum mit Elektroden abgreift, können selbstlernende Algorithmen aus den Hirnstrommustern erkennen, welchen Klängen beziehungsweise welcher Stimme das Gehirn gerade seine Aufmerksamkeit widmet. So eine Funktionalität könnte sich eines Tages auch in ein Hörgerät integrieren lassen.
"Es ist möglich, die Hirnwellen aus dem Hörzentrum eines Menschen mit all den Klangquellen aus der Umwelt abzugleichen und dann jene herauszugreifen, die den Hirnstrommustern am besten entspricht. Diese kann man dann gezielt verstärken. Und so könnte das System der Person helfen, jene Stimme besser zu hören, der sie auch folgen will."
Dass das Konzept funktioniert, zeigten Versuche mit drei normal hörenden Probanden, denen im Rahmen einer Epilepsie-Behandlung schon Elektroden ins Hirn eingesetzt worden waren. Die Forscher spielten ihnen das Gemisch einer Frauen- und einer Männerstimme vor.
Die Probanden sollten erst der Männer-, dann der Frauenstimme ihre Aufmerksamkeit widmen. Das System konnte das tatsächlich anhand der Hirnstrommuster erkennen und passte entsprechend das Lautstärkeverhältnis der Stimmen zueinander an. Erst war die Männerstimme lauter zu hören, dann die Frauenstimme.
Erste Anwendungen in fünf Jahren möglich
Noch ist das alles Grundlagenforschung. Doch die Ergebnisse sind so vielversprechend, dass Nima Mesgarani sagt:
"Ich denke wir sind nicht mehr weit davon entfernt etwas zu haben, das über den Nachweis des Konzepts hinaus geht. Ich würde sagen in fünf Jahren, vielleicht etwas mehr, werden wir erste Anwendungen dieser Technologie sehen."
Bis dahin müsste es auch gelingen, die zugehörigen Hirnwellen zur Steuerung solcher Hörgeräte nicht über implantierte Elektroden, sondern extern an der Schädeldecke oder im Gehörgang abzuleiten. Nach Nima Mesgaranis Einschätzung sollte das genauso möglich sein.
Bis dahin müsste es auch gelingen, die zugehörigen Hirnwellen zur Steuerung solcher Hörgeräte nicht über implantierte Elektroden, sondern extern an der Schädeldecke oder im Gehörgang abzuleiten. Nach Nima Mesgaranis Einschätzung sollte das genauso möglich sein.