Für die acht Studenten war es eine Offenbarung. Dem Psychologen John-Dylan Haynes vom Bernstein Zentrum für Computational Neuroscience in Berlin gelang es, ihre geheimen Absichten vorauszusagen – allein, indem er die Gehirne beobachtete. Dazu schob er die Probanden einzeln in die Röhre eines Kernspintomographen. Darin sollten sie nichts weiter tun, als sich zu entscheiden, ob sie zwei Zahlen addieren oder subtrahieren wollen.
"Wir haben ihnen zu dem Zeitpunkt noch gar nicht gesagt, um welche Zahlen es sich handelt, sie haben sich also einfach abstrakt für eine von zwei Aufgaben entschieden. Die Person liegt da drin und denkt plus, plus, plus oder minus, minus, minus, also Addition oder Subtraktion."
Währenddessen machte der Kernspintomograph Bilder vom Gehirn des Probanden. Aus den Aktivitätsmustern darauf sagte der Berliner Psychologe treffend voraus, ob sich die Person für Plus oder Minus entschieden hatte. Erst danach wurden ihr auf einem Bildschirm Zahlen gezeigt, mit denen sie die Rechnung tatsächlich durchführte. Die Probanden dachten also nicht an bestimmte Schriftzeichen oder an die Position von Zahlen auf dem Bildschirm - sie hatten allein eine abstrakte mathematische Vorstellung im Kopf. Bisher konnte man nur Gedanken auslesen, bei denen es um körperliche Bewegungen ging, also um Motorik. Zum Beispiel: "Finger nach links" oder "Finger nach rechts". Durch Hirnstrommessungen ließ sich damit zum Beispiel der Cursor auf einem Computermonitor steuern.
"Der Unterschied ist, dass motorische Prozesse sich an ganz vielen verschiedenen Stellen im Gehirn sichtbar machen, und auch zu sehr starken Aktivierungsänderungen führen. Aber bisher hätte man gar nicht so genau gewusst, wo man eigentlich schauen soll, wenn man so etwas wie Absichten oder Gedächtnisinhalte oder solche hochgradig komplexen Gedanken auslesen möchte. Was wir zeigen, ist: Wenn man an der richtigen Stelle guckt, kann man sogar diese komplizierten Gedanken auslesen."
John Dylan Haynes blickte mit dem Tomographen ins mittlere Stirnhirn. Auf den Bildern sieht man ein Durcheinander von lauter kleinen grünen und roten Flecken. An diesen Stellen verarbeitet das Gehirn gerade Sauerstoff – es denkt also. Ein Computer bestimmt aus dem Muster der Farbpunkte die Absicht des Probanden, Plus oder Minus zu rechnen.
"Der Code ist bei jedem Menschen anders, weil jeder Mensch im Verlaufe seiner eigenen Entwicklungsgeschichte unterschiedlich verschaltet wird im Gehirn. Wir müssen also für jeden Probanden einzeln diesen Computer trainieren, der muss einfach lernen, wie der charakteristische Fingerabdruck oder Gehirnabdruck dieses Gedankens aussieht."
Darum funktioniert die Methode bisher nur, wenn der Proband kooperiert. Der Trick ist, in dessen Gehirn besonders kleinräumige Aktivitätsmuster aufzuzeichnen. Nur zwei Millimeter groß sind die einzelnen Punkte auf den Bildern des Tomographen. Früher hatte man diese Detailinformation nicht genutzt und nur nach größeren Aktivierungsflecken Ausschau gehalten. John Dylan-Haynes analysierte jetzt bewusst die Details. Und fand darin den entscheidenden Code, um verschiedene Gedanken zu unterscheiden. Das lasse sich auch technisch nutzen, glaubt der Psychologe: Um zum Beispiel mit reiner Willenskraft einen Text zu diktieren, müsste man künftig nicht mehr umständlich einen Cursor auf dem Bildschirm hin- und her bewegen, und jeden Buchstaben mühsam einzeln auswählen. In Zukunft könnte ein Computer vielleicht direkt erkennen, ob ein Proband "a", "b" oder "c" denkt – oder ein bestimmtes Wort im Sinn hat.
"Das ist noch Zukunftsmusik, weil Kernspintomographen noch viel zu teuer für praktische Anwendungen sind, aber die Forschung auch auf diesem Gebiet geht natürlich weiter, und vielleicht wird es eines Tages ja mal möglich, dass wir mittels Kernspintomographie oder verwandter Verfahren behinderten Menschen, die nicht dazu in der Lage sind, ihren Körper zu bewegen, Prothesen zu verschaffen, mit denen sie auch sich auf eine abstrakte Art und weise ausdrücken können."
"Wir haben ihnen zu dem Zeitpunkt noch gar nicht gesagt, um welche Zahlen es sich handelt, sie haben sich also einfach abstrakt für eine von zwei Aufgaben entschieden. Die Person liegt da drin und denkt plus, plus, plus oder minus, minus, minus, also Addition oder Subtraktion."
Währenddessen machte der Kernspintomograph Bilder vom Gehirn des Probanden. Aus den Aktivitätsmustern darauf sagte der Berliner Psychologe treffend voraus, ob sich die Person für Plus oder Minus entschieden hatte. Erst danach wurden ihr auf einem Bildschirm Zahlen gezeigt, mit denen sie die Rechnung tatsächlich durchführte. Die Probanden dachten also nicht an bestimmte Schriftzeichen oder an die Position von Zahlen auf dem Bildschirm - sie hatten allein eine abstrakte mathematische Vorstellung im Kopf. Bisher konnte man nur Gedanken auslesen, bei denen es um körperliche Bewegungen ging, also um Motorik. Zum Beispiel: "Finger nach links" oder "Finger nach rechts". Durch Hirnstrommessungen ließ sich damit zum Beispiel der Cursor auf einem Computermonitor steuern.
"Der Unterschied ist, dass motorische Prozesse sich an ganz vielen verschiedenen Stellen im Gehirn sichtbar machen, und auch zu sehr starken Aktivierungsänderungen führen. Aber bisher hätte man gar nicht so genau gewusst, wo man eigentlich schauen soll, wenn man so etwas wie Absichten oder Gedächtnisinhalte oder solche hochgradig komplexen Gedanken auslesen möchte. Was wir zeigen, ist: Wenn man an der richtigen Stelle guckt, kann man sogar diese komplizierten Gedanken auslesen."
John Dylan Haynes blickte mit dem Tomographen ins mittlere Stirnhirn. Auf den Bildern sieht man ein Durcheinander von lauter kleinen grünen und roten Flecken. An diesen Stellen verarbeitet das Gehirn gerade Sauerstoff – es denkt also. Ein Computer bestimmt aus dem Muster der Farbpunkte die Absicht des Probanden, Plus oder Minus zu rechnen.
"Der Code ist bei jedem Menschen anders, weil jeder Mensch im Verlaufe seiner eigenen Entwicklungsgeschichte unterschiedlich verschaltet wird im Gehirn. Wir müssen also für jeden Probanden einzeln diesen Computer trainieren, der muss einfach lernen, wie der charakteristische Fingerabdruck oder Gehirnabdruck dieses Gedankens aussieht."
Darum funktioniert die Methode bisher nur, wenn der Proband kooperiert. Der Trick ist, in dessen Gehirn besonders kleinräumige Aktivitätsmuster aufzuzeichnen. Nur zwei Millimeter groß sind die einzelnen Punkte auf den Bildern des Tomographen. Früher hatte man diese Detailinformation nicht genutzt und nur nach größeren Aktivierungsflecken Ausschau gehalten. John Dylan-Haynes analysierte jetzt bewusst die Details. Und fand darin den entscheidenden Code, um verschiedene Gedanken zu unterscheiden. Das lasse sich auch technisch nutzen, glaubt der Psychologe: Um zum Beispiel mit reiner Willenskraft einen Text zu diktieren, müsste man künftig nicht mehr umständlich einen Cursor auf dem Bildschirm hin- und her bewegen, und jeden Buchstaben mühsam einzeln auswählen. In Zukunft könnte ein Computer vielleicht direkt erkennen, ob ein Proband "a", "b" oder "c" denkt – oder ein bestimmtes Wort im Sinn hat.
"Das ist noch Zukunftsmusik, weil Kernspintomographen noch viel zu teuer für praktische Anwendungen sind, aber die Forschung auch auf diesem Gebiet geht natürlich weiter, und vielleicht wird es eines Tages ja mal möglich, dass wir mittels Kernspintomographie oder verwandter Verfahren behinderten Menschen, die nicht dazu in der Lage sind, ihren Körper zu bewegen, Prothesen zu verschaffen, mit denen sie auch sich auf eine abstrakte Art und weise ausdrücken können."