Donnerstag, 28. März 2024

Archiv

Hörübungen für Roboter
Nao lernt seinen Körper kennen

Um uns Menschen in Zukunft noch mehr schwere und unangenehme Arbeiten abnehmen zu können, müssen Roboter hören lernen. Keine leichte Aufgabe für die Entwickler, denn die Filterfähigkeiten des menschlichen Gehörs sind unerreicht genial. Eine Methode scheint aber doch ganz erfolgversprechend.

Von Haluka Maier-Borst | 09.07.2015
    Ein Serviceroboter wird am 3.6.2014 auf der Messe Automatica in München präsentiert.
    Ein Serviceroboter auf einer Automese in München. (picture-alliance / dpa / Peter Kneffel)
    Nicht immer ist die Beziehung zu Nao für Guido Schillaci von der Humboldt-Universität eine einfache. Vor allem dann nicht, wenn der Spielpuppen große Roboter taub für die Anweisungen seines Meisters ist.
    Damit sich das in Zukunft ändert, hat Schillaci zusammen mit Kollegen das europäische Projekt EARS ins Leben gerufen. Es beschäftigt sich damit, Robotern das Hören beizubringen. Und das ist eine weitaus komplexere Aufgabe, als man vermuten könnte.
    "Hier geht es nicht nur um Sprachverarbeitung, sondern es geht zum Beispiel auch darum, dass der Roboter seine Eigengeräusche herausfiltern kann, er also eine klare Tonspur bekommt, die er verstehen kann. Und das ist eine Herausforderung, die andere Projekte bisher noch nicht in Angriff genommen haben."
    Mit Eigengeräuschen meint Schilacci Dinge wie das Surren des Robotermotors oder das Klackern seiner Gelenke. Oder auch die Geräusche der Schritte, die der Roboter macht, wenn er umherstapft. Wobei die Schrittgeräusche natürlich je nach Untergrund variieren.
    Doch mit den Eigengeräuschen allein ist es längst noch nicht getan. Nao soll auch dann sein menschliches Gegenüber verstehen, wenn er nicht selbst für den Lärm verantwortlich ist - sondern die Umgebung. Also zum Beispiel an einem Bahnsteig oder an einer viel befahrenen Kreuzung.
    Roboter lernen wie ein Kleinkind
    Weil es aber sehr viel Zeit kosten würde, Nao alle denkbaren Eigen- und Fremdgeräusche beizubringen, hat Schilacci auf einen anderen Programmieransatz gesetzt. Er lässt den Roboter selbst die Umwelt erkunden und lernen, welche Geräusche es gibt.
    "Wir programmieren den Roboter so, dass er selbst die Umwelt aber auch seinen Körper erforscht. Es ist vergleichbar mit der Art und Weise, wie Kinder lernen. Sie beginnen quasi mit fast gar nichts und bauen nach und nach ihre Fähigkeiten aus. Und wir glauben, dass diese Methode der einzig richtige Ansatz ist, damit sich Roboter in einer komplexen und sich ständig verändernden Umwelt zurechtfinden."
    Noch ist Schilacci aber mit seiner Forschung ganz am Anfang. Immer wieder stürzt die selbstlernende Software ab. Oder die Elektronik in Nao zickt herum und führt zu Ausfällen. Doch wenn der Roboter ausnahmsweise das tut, was er soll, dann hat der Informatiker Schilacci geradezu väterliche Gefühle für seine kleine Maschine.
    "Es war sehr lustig dem Roboter dabei zuzusehen, wie er seine Arme ausprobierte. Denn zu diesem Zeitpunkt ähnelte er sehr meiner kleinen Tochter zu Hause. Sie hat nämlich auch in den ersten Monaten ihre Arme geschwenkt und bewegt. Irgendwann hielt sie dann plötzlich inne, schaute auf ihre Hände und war überrascht, dass ihre Hände zu ihrem Körper gehörten. Und genau das Gleiche hat Nao auch getan und so gelernt, wie seine Arme funktioniert und was sie für Geräusche macht."
    Und wer weiß: Wenn tatsächlich einmal Roboter aus dem Krabbelalter heraus sind und in jeder Lebenslage uns aufmerksam zuhören können, dann lag das vielleicht auch an Guido Schillacis besonderer Erziehung.