Der Grundgedanke des Semantic Web ist bestechend: Daten sollen so beschrieben werden, dass Maschinen sowohl deren Inhalt als auch den Zusammenhang mit anderen Informationen verstehen können. Das Ziel sind verbesserte Abfragemöglichkeiten. Ein Beispiel: Die Buchung einer Reise. Eine Recherche in einem semantischen Netz würde nicht mehr voraussetzen, dass diese Informationen bereits auf einem Portal gebündelt sind. Die Daten müssten lediglich beschrieben vorliegen, beispielsweise in vorgegebenen Kategorien Preis, Lage, Ausstattung der Zimmer.
Davon ist man im Moment aber noch entfernt. Einer der Gründe: Diese automatisierte Verständigung setzt eine Annotation, also eine Beschreibung und Einordnung der Daten voraus. Das Grundgerüst dafür liegt mit dem Ressource Description Framework RDF vor. Im Web nützt das aber derzeit wenig, denn die Seiten sind in HTML erstellt und deren Inhalte gar nicht oder nur unzureichend beschrieben. Die nachträgliche Beschreibung von Web-Seiten ist einer der Schritte, die notwendig sind, damit das Semantic Web funktionieren kann. Ein System, das diese Arbeit automatisiert erledigen kann, hat Professor Georg Gottlob von der Universität Wien entwickelt:
"Wir haben mit "Lixto" ein System, das auf Web-Seiten geht, Informationen herunter holt und die Information qualifiziert, so dass sie nachher für eine betriebliche Anwendung verwendbar ist. Das ist aber noch nicht das semantische Web: Im semantischen Web müsste diese Information bereits in RDF zur Verfügung gestellt werden. Wir haben eine Zwischenstufe, wo wir Informationen, die in HTML vorliegen, in XML übersetzen können, und zwar gut übersetzen können"
Übersetzen bedeutet in diesem Fall, dass das System selbständig relevante Informationen finden kann, auch wenn es nicht genau weiß, wo diese liegen oder zunächst ein Passwort eingegeben werden muss. Ein Automobilzulieferer verwendet es beispielsweise, um die Portale seiner Kunden abzufragen und lädt die Informationen dann in seine Produktionsplanungssysteme. Das sind aber in der Regel Anwendungen mit einer limitierten Anzahl von Zielen, die abgefragt und ausgewertet werden. Die Abfrage von Daten, die verteilt an vielen unterschiedlichen Stellen vorliegen, ist einer der Punkte, an denen erst seit kurzem gearbeitet wird, berichtet Ivan Herman, Mitglied der Semantic-Web-Arbeitsgruppe des World Wide Web Consortiums:
"Ein Gebiet, das Bedeutung gewonnen hat, ist die Abfrage von RDF-Daten mit einer Abfragesprache namens SPARQL. Obwohl diese Sprache noch gar nicht fertig ist, gibt es schon eine Reihe von Anwendungen, die damit experimentieren. Damit werden vor allem Anfragen auf entfernt liegende RDF-Daten vorgenommen. Dieser Bereich ist im vergangenen Jahr sehr wichtig geworden."
Eine der Anwendungen, bei denen sich Forscher ebenfalls viel von Technologien des Semantic Web versprechen, ist die Aufbereitung von Zusammenhängen zwischen Informationen. Das ist besonders notwendig angesichts der enormen Datenmengen, die mittlerweile generiert werden. Die Annotierung und Strukturierung der Daten könnte unseren Nachfahren helfen, sich im drohenden Datendschungel zu orientieren, hofft Thomas Baker, der sich an der Staats- und Universitätsbibliothek Göttingen mit der Archivierung von Daten beschäftigt:
"Das Semantic Web ist ein Ansatz dafür, wie man Daten aus verschiedenen Quellen miteinander fusioniert auf einer partiellen Basis. Im Zusammenhang mit der Langzeitarchivierung ist der Ansatz auch, dass man Daten, die zu verschiedenen Zeiten entstanden sind, kohärent betrachten und bearbeiten kann."
Davon ist man im Moment aber noch entfernt. Einer der Gründe: Diese automatisierte Verständigung setzt eine Annotation, also eine Beschreibung und Einordnung der Daten voraus. Das Grundgerüst dafür liegt mit dem Ressource Description Framework RDF vor. Im Web nützt das aber derzeit wenig, denn die Seiten sind in HTML erstellt und deren Inhalte gar nicht oder nur unzureichend beschrieben. Die nachträgliche Beschreibung von Web-Seiten ist einer der Schritte, die notwendig sind, damit das Semantic Web funktionieren kann. Ein System, das diese Arbeit automatisiert erledigen kann, hat Professor Georg Gottlob von der Universität Wien entwickelt:
"Wir haben mit "Lixto" ein System, das auf Web-Seiten geht, Informationen herunter holt und die Information qualifiziert, so dass sie nachher für eine betriebliche Anwendung verwendbar ist. Das ist aber noch nicht das semantische Web: Im semantischen Web müsste diese Information bereits in RDF zur Verfügung gestellt werden. Wir haben eine Zwischenstufe, wo wir Informationen, die in HTML vorliegen, in XML übersetzen können, und zwar gut übersetzen können"
Übersetzen bedeutet in diesem Fall, dass das System selbständig relevante Informationen finden kann, auch wenn es nicht genau weiß, wo diese liegen oder zunächst ein Passwort eingegeben werden muss. Ein Automobilzulieferer verwendet es beispielsweise, um die Portale seiner Kunden abzufragen und lädt die Informationen dann in seine Produktionsplanungssysteme. Das sind aber in der Regel Anwendungen mit einer limitierten Anzahl von Zielen, die abgefragt und ausgewertet werden. Die Abfrage von Daten, die verteilt an vielen unterschiedlichen Stellen vorliegen, ist einer der Punkte, an denen erst seit kurzem gearbeitet wird, berichtet Ivan Herman, Mitglied der Semantic-Web-Arbeitsgruppe des World Wide Web Consortiums:
"Ein Gebiet, das Bedeutung gewonnen hat, ist die Abfrage von RDF-Daten mit einer Abfragesprache namens SPARQL. Obwohl diese Sprache noch gar nicht fertig ist, gibt es schon eine Reihe von Anwendungen, die damit experimentieren. Damit werden vor allem Anfragen auf entfernt liegende RDF-Daten vorgenommen. Dieser Bereich ist im vergangenen Jahr sehr wichtig geworden."
Eine der Anwendungen, bei denen sich Forscher ebenfalls viel von Technologien des Semantic Web versprechen, ist die Aufbereitung von Zusammenhängen zwischen Informationen. Das ist besonders notwendig angesichts der enormen Datenmengen, die mittlerweile generiert werden. Die Annotierung und Strukturierung der Daten könnte unseren Nachfahren helfen, sich im drohenden Datendschungel zu orientieren, hofft Thomas Baker, der sich an der Staats- und Universitätsbibliothek Göttingen mit der Archivierung von Daten beschäftigt:
"Das Semantic Web ist ein Ansatz dafür, wie man Daten aus verschiedenen Quellen miteinander fusioniert auf einer partiellen Basis. Im Zusammenhang mit der Langzeitarchivierung ist der Ansatz auch, dass man Daten, die zu verschiedenen Zeiten entstanden sind, kohärent betrachten und bearbeiten kann."