Es gibt wohl kaum etwas entspannenderes, als mit einer heißen Tasse Tee gemütlich im Warmen zu sitzen und zu beobachten, wie der erste Schnee fällt. Dabei wundert es uns eigentlich kaum noch, dass der Schnee direkt in unserer Nähe viel schneller zu fallen scheint, als der weiter weg. Eine optische Täuschung natürlich. Allerdings eine, die uns unser ganzes Leben lang begleitet.
Sobald wir uns bewegen, ob zu Fuß, mit dem Rad, im Zug, immer fliegt die Landschaft in unserer Nähe vorbei, während die in weiter Ferne zu kriechen scheint. Das Bild von unserer Umwelt kann sogar noch verwirrender werden, erklärt Michael Langer von der McGill Universität in Montreal, Kanada:
Das wird komplizierter, wenn man sich bewegt und man jagt, z.B. ein Fuchs jagt einen Hasen, ja, und der Hase hat eine Bewegung und man muss mit den Augen und auch mit dem Körper bewegen.
Während also der Fuchs durch den Wald rennt, jagen die Bäume und Sträucher rechts und links an ihm vorbei. Gleichzeitig muss er aber auch noch den Hasen beobachten. Und der tut ihm nur selten den Gefallen, einfach geradeaus zu laufen. Im Gegenteil, er schlägt Haken, rennt kreuz und quer, tut alles, um den Fuchs zu verwirren. Wenn der Jäger jetzt im Rennen seinen Kopf dreht, dann fliegt die Welt nicht mehr einfach an ihm vorbei, nein: Sie scheint sich auch noch zu drehen.
Erstaunlich eigentlich, dass uns so viel Bewegung nicht völlig durcheinander bring. Im Gegenteil: Wir nutzen diese landschaftliche Dynamik, um uns zu orientieren.
Und das ist kompliziert, aber wir machen das. Und so machen viele Tiere. Vögel, Tiger...
Die Art und Weise, wie sich Bäume, Hasen oder Schneeflocken relativ zueinander bewegen, verrät uns genau, wo wir sind und wie wir uns bewegen. Und damit zum Beispiel dem Fuchs, wie weit seine Beute weg ist und in welche Richtung sie läuft.
Informatiker wie Michael Langer arbeiten hart daran, dieses Wissen auch Robotern zu vermitteln. Denn: egal ob als Minensuchmaschine oder als mechanische Haushaltshilfe, die autonomen Roboter der Zukunft müssen sich in ihrer Umgebung orientieren können. Und sie können das auch tatsächlich schon. Nur leider sind sie dabei unglaublich langsam. Bevor etwa ein Roboter-Fuchs einen Hasen fangen könnte, wäre der wahrscheinlich an Altersschwäche gestorben.
Das liegt daran, dass das elektronische Gehirn einfach nicht schnell genug mit den Bildern fertig wird, die auf es einprasseln. Jede Sekunde liefern ihm seine Kamera-Augen circa 30 Bilder seiner Umgebung. Um herauszufinden, was sich wie bewegt, muss es jede kleine Veränderung in diesen Bildern entdecken und bewerten.
Man muss in jeder kleinen Region im Bild messen, wo die Bewegung ist. Man macht das in jeder Region im Bild, und danach muss man also zusammenbringen und sich entscheiden, in welche Richtung der Kamera geht und auch die Rotation.
Und dieses "Zusammenbringen", das war bislang sehr aufwändig und vor allem langsam. Darum haben sich Langer und seine Kollegen einen rechnerischen Trick einfallen lassen. Sie verlegen die Bewegung einfach in einen anderen Raum - einen, den es nur in der Mathematik gibt. In dieser Welt sortieren sich Dinge nicht nach ihrer Position in der Natur, sondern nach Größe und Bewegungsrichtung. Bäume, an denen der Fuchs direkt vorbeiläuft zum Beispiel, sehen groß und schnell aus. Solche, die weiter weg sind eher klein und langsam. Was für den Nicht-Mathematiker völlig abstrus und unverständlich klingt, macht für den Roboter die Orientierung plötzlich ganz einfach:
Wenn man ein Video hat, so wie Schneeflocken oder wenn man aus dem Zug guckt, findet man einen sehr einfache Form in diesem neuen Raum. Und der Form ist ein bow tie.
Eine Fliege also - wie sie der elegante Herr zum Smoking trägt. Auf dieser Fliege findet sich, zumindest in der Vorstellungswelt unseres Roboter-Fuchses alles, was still steht, während er rennt: Bäume, Sträucher, Häuser, Berge... Der Hase allerdings steht nicht still - und fällt aus dem Rahmen. Und genau das verrät ihn. Dank der "Fliege" weiß auch der Roboter-Fuchs, wie der Hase läuft.
Von Andrea Vogel
Sobald wir uns bewegen, ob zu Fuß, mit dem Rad, im Zug, immer fliegt die Landschaft in unserer Nähe vorbei, während die in weiter Ferne zu kriechen scheint. Das Bild von unserer Umwelt kann sogar noch verwirrender werden, erklärt Michael Langer von der McGill Universität in Montreal, Kanada:
Das wird komplizierter, wenn man sich bewegt und man jagt, z.B. ein Fuchs jagt einen Hasen, ja, und der Hase hat eine Bewegung und man muss mit den Augen und auch mit dem Körper bewegen.
Während also der Fuchs durch den Wald rennt, jagen die Bäume und Sträucher rechts und links an ihm vorbei. Gleichzeitig muss er aber auch noch den Hasen beobachten. Und der tut ihm nur selten den Gefallen, einfach geradeaus zu laufen. Im Gegenteil, er schlägt Haken, rennt kreuz und quer, tut alles, um den Fuchs zu verwirren. Wenn der Jäger jetzt im Rennen seinen Kopf dreht, dann fliegt die Welt nicht mehr einfach an ihm vorbei, nein: Sie scheint sich auch noch zu drehen.
Erstaunlich eigentlich, dass uns so viel Bewegung nicht völlig durcheinander bring. Im Gegenteil: Wir nutzen diese landschaftliche Dynamik, um uns zu orientieren.
Und das ist kompliziert, aber wir machen das. Und so machen viele Tiere. Vögel, Tiger...
Die Art und Weise, wie sich Bäume, Hasen oder Schneeflocken relativ zueinander bewegen, verrät uns genau, wo wir sind und wie wir uns bewegen. Und damit zum Beispiel dem Fuchs, wie weit seine Beute weg ist und in welche Richtung sie läuft.
Informatiker wie Michael Langer arbeiten hart daran, dieses Wissen auch Robotern zu vermitteln. Denn: egal ob als Minensuchmaschine oder als mechanische Haushaltshilfe, die autonomen Roboter der Zukunft müssen sich in ihrer Umgebung orientieren können. Und sie können das auch tatsächlich schon. Nur leider sind sie dabei unglaublich langsam. Bevor etwa ein Roboter-Fuchs einen Hasen fangen könnte, wäre der wahrscheinlich an Altersschwäche gestorben.
Das liegt daran, dass das elektronische Gehirn einfach nicht schnell genug mit den Bildern fertig wird, die auf es einprasseln. Jede Sekunde liefern ihm seine Kamera-Augen circa 30 Bilder seiner Umgebung. Um herauszufinden, was sich wie bewegt, muss es jede kleine Veränderung in diesen Bildern entdecken und bewerten.
Man muss in jeder kleinen Region im Bild messen, wo die Bewegung ist. Man macht das in jeder Region im Bild, und danach muss man also zusammenbringen und sich entscheiden, in welche Richtung der Kamera geht und auch die Rotation.
Und dieses "Zusammenbringen", das war bislang sehr aufwändig und vor allem langsam. Darum haben sich Langer und seine Kollegen einen rechnerischen Trick einfallen lassen. Sie verlegen die Bewegung einfach in einen anderen Raum - einen, den es nur in der Mathematik gibt. In dieser Welt sortieren sich Dinge nicht nach ihrer Position in der Natur, sondern nach Größe und Bewegungsrichtung. Bäume, an denen der Fuchs direkt vorbeiläuft zum Beispiel, sehen groß und schnell aus. Solche, die weiter weg sind eher klein und langsam. Was für den Nicht-Mathematiker völlig abstrus und unverständlich klingt, macht für den Roboter die Orientierung plötzlich ganz einfach:
Wenn man ein Video hat, so wie Schneeflocken oder wenn man aus dem Zug guckt, findet man einen sehr einfache Form in diesem neuen Raum. Und der Form ist ein bow tie.
Eine Fliege also - wie sie der elegante Herr zum Smoking trägt. Auf dieser Fliege findet sich, zumindest in der Vorstellungswelt unseres Roboter-Fuchses alles, was still steht, während er rennt: Bäume, Sträucher, Häuser, Berge... Der Hase allerdings steht nicht still - und fällt aus dem Rahmen. Und genau das verrät ihn. Dank der "Fliege" weiß auch der Roboter-Fuchs, wie der Hase läuft.
Von Andrea Vogel