"Paora ... ... communicar."
"Nun, das Aufregende daran: Wir erreichen dies robuste Überwinden der sprachlichen Teilungen, solche Systeme zu bauen, so dass die Leute kommunizieren können."
Jemand spricht Spanisch und man versteht Deutsch - so ist es, wenn das Interact-System nun erstmals eine freie Rede simultan, zeitgleich und nur mit wenigen Fehlern übersetzt. Der automatische Simultandolmetscher Interact ist das zentrale Produkt einer deutsch-amerikanischen Zusammenarbeit, das beide Universitäten nun in einer internationalen Tele-Konferenz vorgestellt haben. Zur Zeit an der Universität Karlsruhe die Informatikerin Dr. Tanja Schultz von der Carnegie Mellon University (Pittsburgh, Pennsylvania):
"Die Idee ist, dass Sie also als Deutsch Sprechender in andere Länder reisen können, beispielsweise, und dort in direkten Kontakt mit Leuten treten, die kein Deutsch verstehen und auch kein Deutsch sprechen und Sie in Deutsch reden und Ihr Zuhörer das in Chinesisch übersetzt bekommt und umgekehrt."
Der Sprecher muss keine Pausen mehr machen, um einzelne Wörter lautlich voneinander abzugrenzen. Seine gesprochene Sprache, die Parole, bleibt völlig natürlich und spontan. Das System versteht sogar mit sogenannten Ko-Artikulationseffekten umzugehen, wenn also zwei verschiedene Wörter beim Sprechen ineinander übergehen. Noch nicht getestet hat das internationale Forscherteam allerdings zahlreiche Anwendungsszenarien: Die Übersetzung klappe recht gut, aber die Spracherkennung gerate an ihre Grenzen, sagen sie. Diese sind beispielsweise schnell erreicht, wenn Dialekt gesprochen wird oder wenn sogenannte zwischenmenschlich privatsprachliche Elemente verwendet werden, zum Beispiel persönliche Liebkosungen. Auch das Umschalten auf ungewöhnliche Kommunikationsinhalte würde das System vor weitere automatische und manuelle Anforderungen stellen, zum Beispiel auf den Dialog zwischen Rettungsleistellen, bei der Telefonseelsorge oder im militärischen Bereich - immer wenn ein bestimmter Jargon verwendet wird. Trotzdem: Bei der Demonstration, einem frei gesprochenen Vortrag, haben die lernfähigen Rechner in Karlsruhe und Pittsburgh so gut wie alles verstanden und es sofort übersetzt. Beim Lernprozess nutzen sie nicht die Regeln einer Sprache. Sie bedienen sich im World Wide Web. Bei der internationalen Konferenz hat der Informatiker Professor Alexander Waibel das Wort "Gerät" verwendet, englisch "device". Interact verstand aber "divorce". Waibel:
"Gerät und Ehescheidung - hier ist ein Erkennungsfehler aufgetreten, weil sich die beiden englischen Wörter phonetisch ähneln. Wir lösen das gerade, indem wir im Labor in das System Algorithmen für eine Art Selbstbewusstsein integrieren. Dann spürt das System sozusagen, wann es sich nicht sicher ist und signalisiert dies bei der Sprachausgabe durch Fragezeichen - genau wie ein richtiger Übersetzer. Oder es stellt verschiedene Hypothesen über die mögliche Bedeutung und deren Kontext auf und entscheidet sich dann für das plausibelste Wort."
... was bei der Präsentation fast immer geklappt hat. Aber mit der deutschen Sprache hat das Interact-System noch einige - wenn auch hörbar wenige - Probleme. Dass zum Beispiel der zweite Teile eines Verbs erst am Satzende auftaucht, ein nachgestelltes Attribut ist eine technische Herausforderung - genau wie die vielen Komposita, die im Deutschen häufig vorkommenden zusammengesetzten Hauptwörter. Auch mit feiner Ironie kann Interact noch nicht umgehen. Die Forscher arbeiten gerade an Algorithmen, die den Besonderheiten des Deutschengerecht werden und zu deutlichen Verbesserungen führen, sagen sie. Technische Lösungen für praktische Nutzungen - sogenannte Demonstratoren - gibt es bereits für PDAs. Die kleinen, persönlichen Assistenten sollen beim Arztbesuch im Ausland simultan übersetzen. Zehn am Mund fixierte Elektroden verhelfen stummen Menschen zu Sprache und - je nach Einstellung - sogar zu Fremdsprachen. Den Umgang mit neuen Inhalten, Dialekten und privaten Begriffen würde das System weitgehend automatisch lernen.
"Nun, das Aufregende daran: Wir erreichen dies robuste Überwinden der sprachlichen Teilungen, solche Systeme zu bauen, so dass die Leute kommunizieren können."
Jemand spricht Spanisch und man versteht Deutsch - so ist es, wenn das Interact-System nun erstmals eine freie Rede simultan, zeitgleich und nur mit wenigen Fehlern übersetzt. Der automatische Simultandolmetscher Interact ist das zentrale Produkt einer deutsch-amerikanischen Zusammenarbeit, das beide Universitäten nun in einer internationalen Tele-Konferenz vorgestellt haben. Zur Zeit an der Universität Karlsruhe die Informatikerin Dr. Tanja Schultz von der Carnegie Mellon University (Pittsburgh, Pennsylvania):
"Die Idee ist, dass Sie also als Deutsch Sprechender in andere Länder reisen können, beispielsweise, und dort in direkten Kontakt mit Leuten treten, die kein Deutsch verstehen und auch kein Deutsch sprechen und Sie in Deutsch reden und Ihr Zuhörer das in Chinesisch übersetzt bekommt und umgekehrt."
Der Sprecher muss keine Pausen mehr machen, um einzelne Wörter lautlich voneinander abzugrenzen. Seine gesprochene Sprache, die Parole, bleibt völlig natürlich und spontan. Das System versteht sogar mit sogenannten Ko-Artikulationseffekten umzugehen, wenn also zwei verschiedene Wörter beim Sprechen ineinander übergehen. Noch nicht getestet hat das internationale Forscherteam allerdings zahlreiche Anwendungsszenarien: Die Übersetzung klappe recht gut, aber die Spracherkennung gerate an ihre Grenzen, sagen sie. Diese sind beispielsweise schnell erreicht, wenn Dialekt gesprochen wird oder wenn sogenannte zwischenmenschlich privatsprachliche Elemente verwendet werden, zum Beispiel persönliche Liebkosungen. Auch das Umschalten auf ungewöhnliche Kommunikationsinhalte würde das System vor weitere automatische und manuelle Anforderungen stellen, zum Beispiel auf den Dialog zwischen Rettungsleistellen, bei der Telefonseelsorge oder im militärischen Bereich - immer wenn ein bestimmter Jargon verwendet wird. Trotzdem: Bei der Demonstration, einem frei gesprochenen Vortrag, haben die lernfähigen Rechner in Karlsruhe und Pittsburgh so gut wie alles verstanden und es sofort übersetzt. Beim Lernprozess nutzen sie nicht die Regeln einer Sprache. Sie bedienen sich im World Wide Web. Bei der internationalen Konferenz hat der Informatiker Professor Alexander Waibel das Wort "Gerät" verwendet, englisch "device". Interact verstand aber "divorce". Waibel:
"Gerät und Ehescheidung - hier ist ein Erkennungsfehler aufgetreten, weil sich die beiden englischen Wörter phonetisch ähneln. Wir lösen das gerade, indem wir im Labor in das System Algorithmen für eine Art Selbstbewusstsein integrieren. Dann spürt das System sozusagen, wann es sich nicht sicher ist und signalisiert dies bei der Sprachausgabe durch Fragezeichen - genau wie ein richtiger Übersetzer. Oder es stellt verschiedene Hypothesen über die mögliche Bedeutung und deren Kontext auf und entscheidet sich dann für das plausibelste Wort."
... was bei der Präsentation fast immer geklappt hat. Aber mit der deutschen Sprache hat das Interact-System noch einige - wenn auch hörbar wenige - Probleme. Dass zum Beispiel der zweite Teile eines Verbs erst am Satzende auftaucht, ein nachgestelltes Attribut ist eine technische Herausforderung - genau wie die vielen Komposita, die im Deutschen häufig vorkommenden zusammengesetzten Hauptwörter. Auch mit feiner Ironie kann Interact noch nicht umgehen. Die Forscher arbeiten gerade an Algorithmen, die den Besonderheiten des Deutschengerecht werden und zu deutlichen Verbesserungen führen, sagen sie. Technische Lösungen für praktische Nutzungen - sogenannte Demonstratoren - gibt es bereits für PDAs. Die kleinen, persönlichen Assistenten sollen beim Arztbesuch im Ausland simultan übersetzen. Zehn am Mund fixierte Elektroden verhelfen stummen Menschen zu Sprache und - je nach Einstellung - sogar zu Fremdsprachen. Den Umgang mit neuen Inhalten, Dialekten und privaten Begriffen würde das System weitgehend automatisch lernen.