Man weiß seit langem aus der Psychophysik, dass Menschen aus sehr verarmten Stimuli komplexe Bewegungsmuster erkennen können. Z.B. Leute anhand ihres Ganges erkennen oder erkennen, ob jemand männlich oder weiblich ist; Und solche Stimuli können nur aus einer kleinen Anzahl von Lichtpunkten bestehen, z.B. 10 Lichtpunkte, die auf den Gelenken der Person, die man sieht, befestigt sind.
Nur wenige Lichter wandern durch die Dunkelheit – und trotzdem wissen wir genau, was – oder wer dahinter steckt. Dass sich das Sehsystem über Jahrmillionen hinweg zu dieser Leistungsfähigkeit hin entwickelt hat, scheint plausibel. Schließlich muss ein Tier seine Feinde – oder auch die Beute – auch dann noch erkennen, wenn sie von Büschen verdeckt sind. Aber wie löst es diese Aufgabe? Wie erkennen wir einen Menschen an nur zehn Lichtpunkten?
Bislang haben Wissenschaftler das ungefähr so versucht: Man nehme ein möglichst genaues Abbild des Körpers. Arme, Beine, Finger, Gelenke, alles wird genau nachgebildet
und dann kann man halt entweder kinematische Modelle haben, wo also diese Teile masselos sind, oder sogar dynamische Modelle, wo z.B. der Arm eine spezifische Masse hat und man dann versucht, die Bewegungsgleichung dieses gesamten Körpermodells nachzubilden.
Ein höchst komplexes Körperbild also, das so lange bewegt und verbogen wird, bis Lichter an diesem Abbild sich genau so verhalten, wie die, die wir beobachtet haben. Dann weiß man , wie die komplette Bewegung aussieht und kann sagen, wer sie gemacht hat.
Technische Systeme lösen die Aufgabe zur Zeit genau so. Nur sind sie im Vergleich zum Gehirn, unglaublich langsam und auch nicht besonders genau. Klar, meinen Giese und seine Kollegen: Sie denken, dass das Gehirn nicht mit komplizierten Mensch-Modellen arbeitet, sondern
Dass es viel, viel einfachere, viel dümmere Mechanismen wahrscheinlich sind, die da im Kortex eine Rolle spielen, die also mehr gehen in die Richtung, dass man halt Detektoren hat für bestimmte lokale Kombinationen von Bewegungen. Also z.B. antiparallele Bewegungen.
Im Grunde achten wir also, auch wenn wir den ganzen Menschen genau sehen können, nicht auf seine Bewegung im Ganzen, sondern nur auf einige markante Punkte: Wie schlenkert die Person mit den Armen, dreht sie die Hüfte beim Gehen mit, ist der Kopf nach vorne geneigt – also genau das, was die wenigen Lichtpunkte im Experiment ohnehin verraten.
Wir haben ein Modell entwickelt, dass zeigt, dass das also in der Tat möglich ist, dass man also einen großen Teil der bekannten experimentellen Resultate erklären kann mit relativ einfachen Mechanismen und den anatomischen Dingen, die man inzwischen weiss.
Das neue Tübinger Verfahren passt nicht nur gut zu dam, was die Forscher über das Gehirn wissen, sondern ist obendrein technisch interessant. Die Polizei zum Beispiel interessiert sich sehr für Verfahren, die schnell und nur anhand dieser wenigen, auch auf die Entfernung leicht zu erkennenden Merkmale Menschen erkennen können. Denn solche Techniken geben ihr eine Chance, Verbrecher etwa in Menschenmengen auch auf größere Entfernungen automatisch aufzuspüren.
von Andrea Vogel
Nur wenige Lichter wandern durch die Dunkelheit – und trotzdem wissen wir genau, was – oder wer dahinter steckt. Dass sich das Sehsystem über Jahrmillionen hinweg zu dieser Leistungsfähigkeit hin entwickelt hat, scheint plausibel. Schließlich muss ein Tier seine Feinde – oder auch die Beute – auch dann noch erkennen, wenn sie von Büschen verdeckt sind. Aber wie löst es diese Aufgabe? Wie erkennen wir einen Menschen an nur zehn Lichtpunkten?
Bislang haben Wissenschaftler das ungefähr so versucht: Man nehme ein möglichst genaues Abbild des Körpers. Arme, Beine, Finger, Gelenke, alles wird genau nachgebildet
und dann kann man halt entweder kinematische Modelle haben, wo also diese Teile masselos sind, oder sogar dynamische Modelle, wo z.B. der Arm eine spezifische Masse hat und man dann versucht, die Bewegungsgleichung dieses gesamten Körpermodells nachzubilden.
Ein höchst komplexes Körperbild also, das so lange bewegt und verbogen wird, bis Lichter an diesem Abbild sich genau so verhalten, wie die, die wir beobachtet haben. Dann weiß man , wie die komplette Bewegung aussieht und kann sagen, wer sie gemacht hat.
Technische Systeme lösen die Aufgabe zur Zeit genau so. Nur sind sie im Vergleich zum Gehirn, unglaublich langsam und auch nicht besonders genau. Klar, meinen Giese und seine Kollegen: Sie denken, dass das Gehirn nicht mit komplizierten Mensch-Modellen arbeitet, sondern
Dass es viel, viel einfachere, viel dümmere Mechanismen wahrscheinlich sind, die da im Kortex eine Rolle spielen, die also mehr gehen in die Richtung, dass man halt Detektoren hat für bestimmte lokale Kombinationen von Bewegungen. Also z.B. antiparallele Bewegungen.
Im Grunde achten wir also, auch wenn wir den ganzen Menschen genau sehen können, nicht auf seine Bewegung im Ganzen, sondern nur auf einige markante Punkte: Wie schlenkert die Person mit den Armen, dreht sie die Hüfte beim Gehen mit, ist der Kopf nach vorne geneigt – also genau das, was die wenigen Lichtpunkte im Experiment ohnehin verraten.
Wir haben ein Modell entwickelt, dass zeigt, dass das also in der Tat möglich ist, dass man also einen großen Teil der bekannten experimentellen Resultate erklären kann mit relativ einfachen Mechanismen und den anatomischen Dingen, die man inzwischen weiss.
Das neue Tübinger Verfahren passt nicht nur gut zu dam, was die Forscher über das Gehirn wissen, sondern ist obendrein technisch interessant. Die Polizei zum Beispiel interessiert sich sehr für Verfahren, die schnell und nur anhand dieser wenigen, auch auf die Entfernung leicht zu erkennenden Merkmale Menschen erkennen können. Denn solche Techniken geben ihr eine Chance, Verbrecher etwa in Menschenmengen auch auf größere Entfernungen automatisch aufzuspüren.
von Andrea Vogel