Ein phantastisches Bild: Fein säuberlich grenzen sich rechts und links einzelne Erdschichten bis in eine Tiefe von 30 Metern ab. Ein paar Schritte nach vorn und der Blick durchdringt den Boden, es wird schwarz, möglicherweise eine mit Öl kontaminierte Industrienbrache. Im Labor für Virtuelle Realität der Universität Trier taucht der Betrachter ab unter die Erde. Voraussetzung sind Trackersysteme,...
"…die eine Person mit einer bestimmten Position im Raum an den Rechner übergeben, so dass der jeweilige Nutzer in die virtuelle Welt hinein versetzt wird. Er befindet sich dann direkt in der Szene drin und seine Bewegungen werden visuell umgesetzt. "
Andreas Müller, Wissenschaftlicher Mitarbeiter am Institut für Kartografie der Universität Trier. Ausgabekomponenten sind in diesem Fall "Headmount Displays", die über Stereosehen eine außergewöhnliche Immersion erzeugen, so das Fachwort für ein möglichst realistisches Eintauchen in die virtuelle Welt.
"Hier werden Highend-Komponenten eingesetzt, Grafikkarten entsprechend beschleunigt, sei es OpenGL oder DirectX, und die Software wird so optimiert, dass sie dann solche Visualisierungen leisten kann, es geht dann um Multirepräsentationsdatenbanken und dergleichen."
Das heißt, Objekte sind gleich in mehreren Auflösungs- und Detaillierungsstufen abgespeichert, um den Rechenprozess beim Spaziergang durch die Unterwelt ökonomischer zu gestalten. Die Datenmengen in Geoinformationssystemen sind gewaltig und müssen sich ruckelfrei auf jederzeit visualisieren lassen. Das Hauptproblem sieht Andreas Müller dabei bei der Datenreduktion.
"Die technischen Probleme sind zunächst einmal, dass ich ein Objekt, was über sehr viele Koordinaten verfügt, reduzieren muss, aber die äußere Gestalt, die Form etwa, erhalten möchte. Das sind Dinge, die vom Rechner schwer zu lösen sind, weil sie viel menschliches Einschätzungsvermögen voraussetzen, weswegen hier auch häufig Methoden der Künstlichen Intelligenz eingesetzt werden. Das ist aber noch nicht sehr weit fortgeschritten, muss man dazu sagen. "
Trotzdem sind Bilder und Bewegungen ausgesprochen realistisch – auch Dank des Einsatzes von Hochleistungsprozessoren aus dem Computerspiele-Bereich. Er ist Motor für neue Entwicklungen. Allerdings können auch sie keine unbekannten Dinge sichtbar machen.
"Häufig will ich ja nach Dingen suchen, von denen ich eben noch keine Daten habe und dann kann ich die natürlich auch nicht visualisieren, da würde ich mal sagen, sind Grenzen gesetzt."
Das klingt banal, ist aber ein Problem: Geoinformationssysteme müssten mit Simulationstools ausgestattet sein, um sichtbar zu machen, was wahrscheinlich unter der Erde liegt. Grenzen gibt es aber noch in anderen Bereichen. Die Daten stammen aus unterschiedlichen Quellen.
"Das Ganze läuft unter dem Stichwort Geodateninfrastruktur, das wird gerade auch europaweit neu aufgebaut und ein wesentlicher Punkt ist die Zugänglichkeit, wie komme ich an diese Informationen heran. Und da muss man sagen, im Moment ist das in Europa noch sehr umständlich und sehr schwierig, insbesondere im grenznahen Raum, weil dort eine Vielzahl von Behörden und Verwaltungen aufeinander treffen und man sich die Daten von ganz unterschiedlichen Stellen besorgen muss und sie nicht zentral zur Verfügung hat. "
Weitaus schlimmer ist aber die Tatsache, dass die Daten in unterschiedlichen Formaten vorliegen.
"Es gibt ein Konsortium, das Open GIS Konsortium, das sich um diese Schnittstellen bemüht. Das sind im Wesentlichen XML-Spezifikationen, das heißt, die Geodaten werden strukturiert beschrieben in XML-Formaten und können dann von den unterschiedlichen Herstellersystemen gelesen werden. "
Ohne einheitliche Standards lässt sich mit Geoinformationssystemen nur sehr schwer arbeiten. Die Qualität vieler Projekte steht und fällt mit ihnen. Ein Weltstandard ist nicht in Sicht. Für Europa – sagt Andreas Müller – müsst der Standard aber innerhalb der nächsten Jahre kommen.
"…die eine Person mit einer bestimmten Position im Raum an den Rechner übergeben, so dass der jeweilige Nutzer in die virtuelle Welt hinein versetzt wird. Er befindet sich dann direkt in der Szene drin und seine Bewegungen werden visuell umgesetzt. "
Andreas Müller, Wissenschaftlicher Mitarbeiter am Institut für Kartografie der Universität Trier. Ausgabekomponenten sind in diesem Fall "Headmount Displays", die über Stereosehen eine außergewöhnliche Immersion erzeugen, so das Fachwort für ein möglichst realistisches Eintauchen in die virtuelle Welt.
"Hier werden Highend-Komponenten eingesetzt, Grafikkarten entsprechend beschleunigt, sei es OpenGL oder DirectX, und die Software wird so optimiert, dass sie dann solche Visualisierungen leisten kann, es geht dann um Multirepräsentationsdatenbanken und dergleichen."
Das heißt, Objekte sind gleich in mehreren Auflösungs- und Detaillierungsstufen abgespeichert, um den Rechenprozess beim Spaziergang durch die Unterwelt ökonomischer zu gestalten. Die Datenmengen in Geoinformationssystemen sind gewaltig und müssen sich ruckelfrei auf jederzeit visualisieren lassen. Das Hauptproblem sieht Andreas Müller dabei bei der Datenreduktion.
"Die technischen Probleme sind zunächst einmal, dass ich ein Objekt, was über sehr viele Koordinaten verfügt, reduzieren muss, aber die äußere Gestalt, die Form etwa, erhalten möchte. Das sind Dinge, die vom Rechner schwer zu lösen sind, weil sie viel menschliches Einschätzungsvermögen voraussetzen, weswegen hier auch häufig Methoden der Künstlichen Intelligenz eingesetzt werden. Das ist aber noch nicht sehr weit fortgeschritten, muss man dazu sagen. "
Trotzdem sind Bilder und Bewegungen ausgesprochen realistisch – auch Dank des Einsatzes von Hochleistungsprozessoren aus dem Computerspiele-Bereich. Er ist Motor für neue Entwicklungen. Allerdings können auch sie keine unbekannten Dinge sichtbar machen.
"Häufig will ich ja nach Dingen suchen, von denen ich eben noch keine Daten habe und dann kann ich die natürlich auch nicht visualisieren, da würde ich mal sagen, sind Grenzen gesetzt."
Das klingt banal, ist aber ein Problem: Geoinformationssysteme müssten mit Simulationstools ausgestattet sein, um sichtbar zu machen, was wahrscheinlich unter der Erde liegt. Grenzen gibt es aber noch in anderen Bereichen. Die Daten stammen aus unterschiedlichen Quellen.
"Das Ganze läuft unter dem Stichwort Geodateninfrastruktur, das wird gerade auch europaweit neu aufgebaut und ein wesentlicher Punkt ist die Zugänglichkeit, wie komme ich an diese Informationen heran. Und da muss man sagen, im Moment ist das in Europa noch sehr umständlich und sehr schwierig, insbesondere im grenznahen Raum, weil dort eine Vielzahl von Behörden und Verwaltungen aufeinander treffen und man sich die Daten von ganz unterschiedlichen Stellen besorgen muss und sie nicht zentral zur Verfügung hat. "
Weitaus schlimmer ist aber die Tatsache, dass die Daten in unterschiedlichen Formaten vorliegen.
"Es gibt ein Konsortium, das Open GIS Konsortium, das sich um diese Schnittstellen bemüht. Das sind im Wesentlichen XML-Spezifikationen, das heißt, die Geodaten werden strukturiert beschrieben in XML-Formaten und können dann von den unterschiedlichen Herstellersystemen gelesen werden. "
Ohne einheitliche Standards lässt sich mit Geoinformationssystemen nur sehr schwer arbeiten. Die Qualität vieler Projekte steht und fällt mit ihnen. Ein Weltstandard ist nicht in Sicht. Für Europa – sagt Andreas Müller – müsst der Standard aber innerhalb der nächsten Jahre kommen.