Archiv


Wie kommt das Wissen in den Kopf?

Welche Prozesse stehen hinter dem Verständnis von Sprache? Dieser Frage gehen Experten im Sonderforschungsbereich "Variation und Entwicklung im Lexikon" nach. Unter "Lexikon" verstehen sie mehr als ein virtuelles Wörterbuch im menschlichen Gehirn.

Von Thomas Wagner |
    Henning Reetz ist Professor für Phonetik an der Universität Frankfurt. Noch vor ein paar Jahren arbeitete er in Konstanz am Bodensee im DFG-Sonderforschungsbereich "Variation und Entwicklung im Lexikon". Von der Uni war es seinerzeit ein leichtes, mit einem Kassettenrecorder und einem Mikrofon kurz mal ein paar Kilometer weiter in die Schweiz zu fahren, um Feldforschung zu betreiben:

    "Schwyzerdütsch" - das ist die Sprache der Schweizer Nachbarn, die sich vom Hochdeutschen doch sehr stark unterscheidet. Und genau das findet Henning Reetz, einer der Teilnehmer auf der Konstanzer Tagung, überaus spannend:

    "Das eine war also im Schweizerdeutschen: Ich habe Pommes Frites nicht gerne. Und das andere: Ich mag Bohnen nicht gerne. Im Standard-Deutschen haben wir ein P und ein B. Beim P kommt ein Luftstrom aus dem Mund. Und beim B halt nicht. Und beim Schweizerdeutschen ist bei dem P bei Pommes frites eine lange Pause vor dem P. Und bei den Bohnen ist eine kurze Pause. Sie haben also nicht viel Luftstrom und wenig Luftstrom, sondern lange Pause, kurze Pause."

    Und genau solche Erkenntnisse sind wichtig für ein Forschungsfeld, das die Sprachwissenschaftler knapp mit "Lexikon" beschreiben.

    "Wir haben im Grunde im Gehirn die gleichen Laute, was für ein B und was für ein P steht. Das wird aber akustisch ganz anders realisiert, obwohl vor über 1000 Jahren das einmal die gleiche Sprache war. So: Wie kommt jetzt diese Veränderung zustande? Wie wird das repräsentiert und abgespeichert? Obwohl das mal eine Sprache gewesen ist. Und warum können wir heute uns noch verstehen? Irgendwann gibt es mal einen Punkt, wo wir uns nicht mehr verstehen können, weil die Unterscheide zu groß geworden sind."

    Welche gemeinsamen Sprachelemente tragen dazu bei, dass Schwyzerdeutsch trotz aller Schwierigkeiten auch in Deutschland verständlich bleibt? Und nach welcher Systematik sind diese Elemente im menschlichen Gehirn gespeichert? Welche Prozesse stehen hinter dem Verständnis von Sprache ganz generell? Solchen Fragen gehen die Experten im Sonderforschungsbereich "Variation und Entwicklung im Lexikon" nach. Und unter "Lexikon" verstehen sie mehr als ein virtuelles Wörterbuch im menschlichen Gehirn.

    "Wir wollen über das reden, was die Sprecher einer Sprache in irgendeiner Weise besitzen, damit sie sprechen können. Und das wird von vielen Linguisten als etwas angesehen, was Regeln sind, Prinzipien. Aber es gehört dazu eben auch ein Wissen, das wir Lexikon nennen. Das sind im wesentlichen Wörter, aber nicht nur Wörter als ein Haufen von zufälligen Objekten, sondern wir nehmen an, dass die Wörter sehr vieles, was für die Sprachfähigkeit eine allgemeine Rolle spielt, schon in sich enthalten, so dass die Art wie wir sprechen, schon größtenteils im Lexikon festgelegt ist"."

    so der Konstanzer Sprachwissenschaftler Professor Christoph Schwarze, der von Anfang an im Sonderforschungsbereich die Regeln des Lexikons mit erforscht. Lexikon wird damit als die Gesamtheit aller angeborenen und situationsunabhängigen Regeln verstanden, die das Sprechen einer Sprache überhaupt erst ermöglichen. Damit umfasst der Begriff "Lexikon" aus Sicht der Sprachwissenschaftler, so der Konstanzer Linguist Professor Franz Blank, gleich mehrere Komponenten:

    ""Lexikon hat eine lautliche Seite, eine Bedeutungsseite und eine Seite über die Verwendung von Wörtern im Satz. Auf einer Festplatte wäre alles ganz konkret gespeichert. Da wäre jeder Laut ganz konkret drauf, jede Bedeutung. Das ist aber nicht die Situation, die man in der wirklichen Kommunikation hat, weil jeder Sprecher eine andere Aussprache hat, eine andere Bedeutung. Aber das Phänomen ist, dass man sich trotzdem ziemlich gut versteht. Also kann das, was im Gehirn an Sprachfähigkeit gespeichert ist, nicht so konkret sein wie das auf einer Festplatte. Das im Gehirn muss abstrakter sein. Und dass alleine ermöglicht, dass das so gut funktioniert."

    Aber wie sehen diese abstrakten Regeln und Prozesse im Gehirn aus, die Sprachkompetenz ermöglichen? Aus dieser Fragestellung ergeben sich eine Fülle von Forschungsprojekten, die auf der Konstanzer Tagung diskutiert wurden. Georg Kaiser ist Professor für romanische Sprachwissenschaft an der Universität Konstanz:

    "Ich habe eine spezielle Sache im Lexikon untersucht, nämlich ich habe mich mit Wörtern beschäftigt, die keine Bedeutung haben, aber trotzdem da sein müssen. Im Deutschen haben wir dazu ein schönes Beispiel: Wenn wir sagen 'Es regnet', dann bedeutet dieses 'ex' eigentlich nichts, ja. Ich kann auch sagen, dass es regnet. Jetzt kann ich aber auch sagen: 'Es sind drei Mädchen angekommen...'. Aber wenn ich dass jetzt im Nebensatz setze, darf ich komischerweise das 'es' nicht gebrauchen. Ich sage. 'Ich glaube, dass drei Mädchen angekommen sind.. Ich kann nicht sagen, 'dass es drei Mädchen angekommen sind.' Und dass weiß jeder Sprecher im Deutschen. Interessant im Rätoromanischen ist das ähnlich strukturiert wie im Deutschen. Und genau in diesen Fällen 'Ich glaube, dass drei Mädchen angekommen sind' kann man dieses 'es' zum Beispiel gebrauchen, obwohl es keine Bedeutung hat. Also dieses Wort ist im Lexikon gespeichert. Und die Sprecher wissen: Da darf ich es verwenden und da darf ich es nicht verwenden, obwohl es keine Bedeutung hat. Den Sinn des Satzes würde es nicht ändern."

    Die Erfassung und Systematisierung solcher Wörter ohne Bedeutung ist eine wesentliche Aufgabe der beteiligten Sprachwissenschaftler. Auf der Basis dieser Arbeiten stellt sich aber, so Franz Plank, die weitaus schwierigere Fragestellung:

    "Wie kommt das Wissen in den Kopf? Und ich glaube, gibt es verschiedene Möglichkeiten: Das eine ist, dass es ein Wissen gibt, dass man nicht erwerben muss, das man genetisch mitbekommt. Ein großer Teil der Sprachfähigkeit wird genetisch weiter gegeben. Und weil ein großer Teil der Menschen genetisch einigermaßen gleich ausgestattet ist, sind die genetischen Komponenten der Sprachfähigkeit überall gleich. Das heißt: Alle Sprachen müssen Gemeinsamkeiten aufweisen. Die andere Seite ist das, was man als Sprache lernt. Das sind Fertigkeiten des Lernens nicht unbedingt in der Schule. Also das mit dem 'Es' kann ich mir nicht vorstellen, dass deutsche Kinder das in der Schule gelehrt bekommen. Sondern das sind Fertigkeiten des Lernens, Erstspracherwerb, Zweitspracherwerb, wie man eben diese sprachlichen Fertigkeiten erwirbt, die nicht genetisch angelegt sind."

    Ein weiteres Forschungsfeld beschäftigt sich mit der Anordnung der einzelnen Sprachelemente im menschlichen Gehirn: Wie sind diese Elemente angeordnet? Um diese Frage zu klären, bedienen sich die Experten der Methoden der Neurolinguistik. Dabei bringen Mediziner am Kopf ihrer Versuchspersonen von außen elektronische Sonden an, die Gehirnströme messen - beispielsweise in Abhängigkeit von Wörtern oder Sätzen, die über einen Kopfhörer eingespielt werden.

    Christoph Schwarze kennt erste Ergebnisse:

    "Da gibt es zum Beispiel psycholinguistische Methoden, die zeigen können, dass zum Beispiel Wörter, bei denen der Laie überhaupt keinen Zusammenhang sieht, weil sie überhaupt keine gemeinsame Bedeutung haben, dass es trotzdem doch Zusammenhänge gibt - der lautliche Zusammenhang, wenn Wörter gleich klingen, dass das eine viel größere Rolle spielt, als ich zum Beispiel früher gedacht hätte."

    Ein weiteres Projekt stützt sich auf eine erstaunliche Beobachtung: Manche Laute erfüllen von sich aus eine Bedeutungsfunktion, andere wieder nicht. Das hat die in Konstanz forschende Sprachwissenschaftlerin Professor Aditi Lahiri herausgefunden:

    "Zum Beispiel gibt es zwei Wörter, Bahn und Baum. Da ist ein N und ein M am Ende. Aber es gibt eine Asymmetrie: Man hört Bahn zum Beispiel."

    Wohlgemerkt: Gemeint ist "Bahm", ein künstliches Wort ohne Bedeutung.

    "Wenn man hört 'Bahm', dann ist Zug aktiviert. Da gibt es eine semantische Verbindung."

    In diesem Fall können die Regeln des Lexikons den kleinen Fehler im Wort ausgleichen; die Bedeutung bleibt erhalten.

    "Aber wenn man 'Baum' nimmt zum Beispiel, dann wird Strauch aktiviert in der Semantik. Aber wenn ich N als N spreche, 'Baun', dann wird Strauch nicht aktiviert."

    Das heißt: Wird in an einem Wortende M durch N ersetzt, erkennt das Gehirn den Fehler und ordnet die richtige Bedeutung zu. Wird dagegen M durch N ersetzt, also gerade umgekehrt, funktioniert das nicht mehr - das Wort "Baun" bleibt, das haben die Versuche ergeben, unverstanden. Das Erstaunliche dabei: Diese Beobachtung trifft auf alle geläufigen Sprachen zu, die die Konstanzer Wissenschaftler untersuchen konnten. Auf diesem Weg nähern sie sich dem bislang unbekannten Regelwerk an, das genetisch bedingt im Gehirn die Grundlage für Sprachkompetenz legt. Das alles ist bislang noch Grundlagenforschung. Doch so Manches, was in Konstanz erarbeitet wird, könnte in Zukunft auch für technische Anwendungen nützlich sein.

    Die Stimme des Lesophons - ein Vorlesecomputer, der auch mit einem akustischen Spracherkennungssystem gekoppelt ist. Bislang arbeiten solche Spracherkennungssysteme, die einen diktierten Text automatisch in einen geschriebenen oder digitalen Text umwandeln, äußerst unzureichend. Die Computer müssen mit einer hohen Rechenleistung das, was ihnen diktiert wird, mit vorliegenden akustischen Sprachmustern vergleichen. Zukünftig könnte es auf der Basis der Konstanzer Forschungsergebnisse gelingen, die sprachlichen und sehr viel abstrakteren Lexikon-Regeln des menschlichen Gehirns auch auf Rechner zu übertragen, glaubt Henning Reetz:

    "Und so versuchen wir auch in der Spracherkennung, das akustische Signal überzuführen in eine relativ abstrakte Repräsentation von Eigenschaften. Und diese Eigenschaften existieren unabhängig davon, wer Sprecherin oder Sprecher ist, und dass man diese Eigenschaften bündelt und in einem Lexikon nach diesen Eigenschaften sucht und nicht nach den akustischen Details und versucht, nachzuvollziehen, wie unser Gehirn die Sprache versteht und das versucht, auf dem Computer abzubilden."