• Deutschlandfunk bei Facebook
  • Deutschlandfunk bei Twitter
  • Deutschlandfunk bei Google+
  • Deutschlandfunk bei Instagram

 
 
Seit 15:05 Uhr Corso - Kultur nach 3
StartseiteWissenschaft im BrennpunktArchive mit Verfallsdatum16.05.2005

Archive mit Verfallsdatum

Ungeklärte Fragen der langfristigen Verfügbarkeit digitaler Informationen

Während das digitale Morsealphabet verschwindet, werden immer mehr Daten digital verarbeitet. Das geht schnell und ist bequem. Vor Begeisterung hat man die Frage der Langzeitspeicherung verdrängt. Während die Hieroglyphen ägyptischer Tempel noch sichtbar sind, muss man bei älteren Disketten und CDs befürchten, dass sie sie bald nicht mehr lesbar sind. Deshalb drohen riesige Datenverluste.

Von Cajo Kutzbach

Ein alte 8,5" Floppy-Diskette, zunehmend macht es Schwierigkeiten Daten von solch alten Speichermedien zu lesen (AP Archiv)
Ein alte 8,5" Floppy-Diskette, zunehmend macht es Schwierigkeiten Daten von solch alten Speichermedien zu lesen (AP Archiv)

"So, die von mir befohlene Brücke über den Rhein in Köln bewährt sich? Das höre ich gern. Was gibt es sonst Neues im Reich?"

"In den Büchereien, auch hier in Konstantinopel, zerböseln die Papyrusrollen. Geschichte und Wissen der Vorfahren geht verloren. Wir müssen sie kopieren! "
(wegen der Kosten seufzend) "Na gut. Kümmere Dich drum. Befehl des Kaisers: Die Werke müssen von alten Datenträgern auf neue übertragen werden, damit das Wissen nicht verloren geht! "

So etwa könnte Kaiser Konstantin um das Jahr 330 die Rettung des damaligen Weltkulturerbes befohlen haben. Etwa 100.000 alte Papyrusrollen wurden danach von Hand auf moderneres Pergament abgeschrieben. Datenverluste sind also nichts Neues. Nur erzeugen wir jährlich unvorstellbare 5 Milliarden Gigabyte Daten.

Im Staatsarchiv des Landes Baden-Württemberg in Ludwigsburg stehen moderne Regale zwischen den gusseisernen, mit Kapitellen verzierten Säulen des alten Gemäuers. Archivrat Dr. Christian Keitel zeigt am Beispiel der Volkszählung von 1970, welchen Platz im Archiv verschiedene Formen von Daten benötigen:

"Wir haben hier das Problem, dass wir hier ein und dieselbe Information in zweierlei Form übernommen haben vom Statistischen Landesamt: Einmal als Erhebungsbögen und das andere Mal als digitale Daten aus ner ursprünglich hierarchischen Datenbank.
Wenn man das nebeneinander legt, ob man 665 laufende Meter im Regal durchgucken muss, oder drei CDs mal in den Rechner reinschiebt."

34 Regal-Kilometer sind allein in diesem Archiv belegt. Also ist die Speicherung von Akten und Urkunden in digitaler Form sehr verlockend. Da heute viele Akten nur digital vorhanden sind, muss man die wichtigen auch digital archivieren. Aber das hat gleich mehrere Haken. Es machte erhebliche Schwierigkeiten die Datenbank so auf den drei CDs zu speichern, dass man auch in ferner Zukunft an die Daten heran kommt.

"Als wir da vor drei Jahren angefragt haben, ob es denn noch digitale Unterlagen zur Volkszählung 1970 gäbe, hat man uns geantwortet:
"Ja, die gibt's noch auf Magnetbändern." - Wer hat heute noch Magnetbänder, wer hat noch 8,5 Zoll-Disketten. Wer hat die ganzen alten Datenträger und kann sie noch lesen?"

Dieses Problem ist nicht neu. Wer Schelllack-Schallplatten hat, Super-Acht-Filme, Bildplatten oder Tonbänder, der kennt die Schwierigkeiten diese abzuspielen. Das Problem wurde in der digitalen Welt verschärft, weil Datenträger und Abspielgeräte immer rascher wechseln.
4000 Jahre alte sumerische Tontafeln, der dreisprachige Stein von Rosetta, oder die Schriftrollen von Quamran dagegen sind heute noch ohne technische Geräte lesbar.

Christian Keitel zeigt am Beispiel der Volkszählung das zweite Problem:

"Also baten wir das Statistische Landesamt diese Magnetbänder auf CDs zu brennen. - Dann kam die nächste Frage: "Ja haben sie denn unser Programm von damals, mit dem wir damals die Zeichen kodiert haben?"
Denn damals haben die Statistischen Landesämter - die Volkszählung wurde bundesweit durchgeführt - ein eigenes Programm entwickelt, bei dem die Zeichen anders kodiert wurden, als sie heute kodiert werden mit ASCII oder Unicode."

Das sind - vereinfacht ausgedrückt - die Spielregeln nach denen die Daten im Rechner abgelegt werden. Wer mal in E-Mails oder auf Internetseiten statt der Umlaute seltsame Zeichen fand - weil sich die Einstellungen der Programme unterschieden -, wer so etwas erlebte, der versteht, wie wichtig es ist, dass die beteiligten Rechner sich an gemeinsame Spielregeln halten, damit die Daten nicht unlesbar oder verfälscht werden.

Auch die bis zum Jahr 2010 dauernde Digitalisierung der 5 Millionen Grundbücher Baden-Württembergs erfolgt mit speziellen Programmen. Oberstaatsanwalt Jens Gruhl leitet im Justizministerium in Stuttgart das zuständige Referat. Er kann deshalb nicht vorhersagen, ob das langfristig sehr teuer wird:

"Ja und nein. Die Kosten für die elektronische Speicherung sind natürlich zunächst höher, als bei Papierspeicherung. Das liegt auf der Hand: Ich brauche andere Hardware, ich brauche Software. Andererseits wird die Handhabung einfacher: Ich brauche bei der Beauskunftung, die natürlich auch aufwendig ist, bedeutend weniger Personal, als wenn ich in ein Archiv gehen muss, Akten ziehen muss, Kopien anfertigen muss, die ich jetzt auf Knopfdruck erzeugen kann, oder bei "Berechtigten Dritten" - so werden die genannt - über das Internet die Information übermitteln kann. "

Angesichts von Millionen Arbeitslosen, Bevölkerungsentwicklung und leeren Staatskassen, ist fraglich ob diese Rechnung wirklich aufgeht.
Doch zurück zur Archivierung der Volkszählungsdaten. Als das geeignete Gerät und das richtige Programm gefunden waren, gab es ein drittes Problem: Man brauchte jemand der sich damit auskannte und die Daten in ein heute gängiges Format übertrug.

"Schließlich gab‘s im Statistischen Landesamt noch genau einen Mitarbeiter aus dieser Zeit, der uns das alles machen konnte, der heute im Ruhestand ist (lacht) und wir sind schon sehr dankbar, dass er das noch gemacht hat. Aber an diesem Punkt sieht man schon: Die Volkszählung war 1970. Wir haben jetzt 2004. Nach 34 Jahren ist es oft nicht mehr möglich, digitale Unterlagen so in derzeit gängige Formate zu bringen, dass sie noch lesbar und verstehbar sind."

Christian Keitel hatte bei diesem letztes Jahr abgeschlossenen Pilotprojekt Glück und bekam die Daten aus dem Statistischen Landesamt auf drei CDs. Doch die konnte er nicht einfach ins Archiv legen.

Damit die Daten auch in ferner Zukunft verwertbar sind, übertrug er sie in ein Datenformat, dass vermutlich noch lange von vielen Programmen verstanden wird. Außerdem dokumentierte er alle Arbeitsschritte, damit zukünftige Historiker wissen, was er mit den Daten gemacht hat. Es handelt sich bei diesen Dateien ja nicht mehr um eindeutig identifizierbare Originale, sondern nur um Kopien von Kopien.

Bei Text ist das recht einfach. Bei Datenbanken, in denen jedes Feld eine bestimmte Bedeutung hat, wird es schwieriger. Bei der Volkszählung bedeutet eine Zahl in einem Feld, die Postleitzahl, in einem anderen Feld das Geschlecht und in einem dritten das Alter. Dieser Zusammenhang muss erhalten bleiben. Also trennte Christian Keitel die endlosen Zahlenreihen mit Satzzeichen, dort, wo ein neues Datenfeld beginnt.

"Das ist jetzt ein Format - Charakter Seperated Value - CSV-Format, das von den meisten heute gängigen Datenbankprogrammen wieder eingelesen werden kann. Aber es gibt dann ne größere Zahl an Problemen, die man zu lösen hat, z.B. ob die Feldüberschriften noch in die Datei rein müssen, oder nicht."

Trotz hilfreicher Software dauerte es fast drei Monate, die drei CDs in dieses Format zu übertragen. Dann wurden die Daten wieder auf CDs gebrannt. Dabei ist der Datenträger austauschbar:

"Den sollte man regelmäßig umkopieren und zweitens sollte man die Daten bitteschön mindestens in zwei Kopien archivieren, wenn nicht mehr, denn man muss immer damit rechnen, dass ein Datenträger ausfällt."

Das Staatsarchiv macht deshalb drei Kopien die alle fünf Jahre umkopiert werden. Ehe es keine Lesegeräte mehr für CDs gibt, wird man die Daten auf andere Datenträger übertragen. Die Fachleute nennen das "Migrieren", zu deutsch"wandern". Dafür ist dann immer wieder ein Mensch notwendig, dessen Arbeitszeit viel teuerer ist, als der Datenträger. Deshalb sind bisher die tatsächlichen Kosten unbekannt, während man bei Papierakten aus jahrhundertelanger Erfahrung weiß, wie viel Platz und Pflege nötig sind. Dennoch bietet die digitale Speicherung auch nützliche Nebeneffekte:

"Sie können nun bei digitalen Unterlagen ne in gewisser Hinsicht höherer Sicherheit erreichen als bei analogen Daten, weil sie die an verschiedenen Orten lagern können. Wenn da mal ein Haus abbrennt, dann könnten die anderen Kopien in 'nem anderen Haus noch schön da sein. Wenn in dem Haus aber Papierunterlagen waren, die sind normalerweise nicht zu kopieren. Man schätzt auf einen laufenden Meter 4000 Blatt Papier und bei 34 km im Staatsarchiv, dann geht das nicht mehr."

Die höhere Sicherheit hat aber einen Preis, den heute niemand kennt. Niemand weiß ja, welchen Aufwand kommende Generationen treiben müssen, um an die Daten wieder heran zu kommen. Will man nämlich etwas in der Datenbank nachschauen, dann muss man sie zunächst wieder in ein gängiges Datenbankformat umwandeln und kann dann erst die gewünschte Information auf den Bildschirm holen. Das macht der Rechner zwar automatisch, aber es dauert etwas.

Es gibt zur Zeit fünf Möglichkeiten digitale Daten verfügbar zu halten. Die erste wäre alte Daten samt alten Geräten und Handbüchern aufzubewahren, so dass man sie mit deren Hilfe anzeigen und wenn man Glück hat auch in neuere Rechner überspielen kann. Das ist so, wie wenn man zu Schelllackplatten ein altes Grammophon samt den nötigen Nadeln aufbewahrt. Keine sehr komfortable Lösung.

Das zweite ist die von Christian Keitel beschriebene Wanderung der Daten von einem Datenträger zum nächsten:

"Migrationsstrategie, dass man eben sagt: Man übernimmt keine Software, man übernimmt nur die Daten und das in einem möglichst standardisierten Format. Das machen die meisten Archive, die derzeit digitale Unterlagen archivieren und wir setzen da momentan auch drauf."

Haltbarer als CDs und seit Langem als Schwarzweißfilm bewährt, sind Mikrofilme, die der Benutzer mit Lesegeräten sichten und auch ausdrucken kann. Für digitale Daten ist diese dritte Lösung nicht ideal, meint Christian Keitel:

"Mikroverfilmung, da hab ich so‘n bisschen das Problem, dass die Daten nicht sofort zugänglich sind und dass ich eigentlich einen Medienbruch in Kauf nehme."

Am Fraunhofer Institut für Physikalische Messtechnik in Freiburg erproben Forscher dennoch eine neue Form dieser Technik. Der Physiker Andreas Hofmann belichtet Farbmikrofilm mittels Laser und ist Koordinator eines Projektes mit der Unibibliothek Stuttgart und der Landesarchivdirektion Baden-Württemberg das digitale Dokumente für lange Zeit archivieren soll.

"Auf dem Film kann man sowohl analog, als auch digital speichern. Das ist ein wesentlicher Vorteil von dem Film. die analoge Speicherung geschieht, wie - wie man es kennt, dass wirklich Bilder auf den Film mittels Lasertechnologie ausbelichtet werden. - Und die digitale Speicherung passiert so, dass die digitalen Bits umgeformt werden in einzelne Lichtintensitätsabstufungen der drei Farben rot, Grün und Blau, so dass man dann praktisch für die Farbe Rot in acht verschiedenen Lichtintensitäten, drei Bit pro Pixel ausbelichten kann."

In jeder der drei Farbschichten wird ein Byte gespeichert. Das führt zu einer erstaunlichen Speicherfähigkeit: Auf einen Filmstreifen, der einem Kleinbildfilm mit 36 Bildern entspricht, passen über drei Gigabyte. Da dieses Filmformat schon hundert Jahre gebräuchlich ist, hofft man, dass es auch noch lange von Scannern gelesen werden kann. Der Hersteller gibt 500 Jahre Lagerfähigkeit an. - Und wie wissen unsere Nachfahren, wie sie die Daten aus dem Film wieder heraus bekommen?

"Die Daten-Information wird auf den Film so aufgebracht, dass man ganz am Anfang der Filmrolle wirklich in Schriftsprache drauf schreibt, was überhaupt auf dem Film drauf ist und auch wirklich dokumentiert, wie man diese Umtransformation der Byts in Graustufen auch verwirklich hat.
D.h. man schreibt die Quellinformation mit auf den Film drauf und kann so sicher stellen, dass man auch in beliebig späteren Zeiten die Rücktransformation ins dann gängige Medium wieder realisieren kann."

Warum gibt es das erst heute? Laser und Film sind doch nichts Neues?

"Der erste Grund ist: Man hat in den letzten zehn Jahren, als die digitale Welle - sag ich mal - so richtig hoch gekommen ist, den Versprechungen der digitalen Welt blind geglaubt, was jetzt die Speicherfähigkeit und auch die Langzeitspeicherfähigkeit betrifft.
Und der zweite Grund ist, dass man erst mit den sehr hohen Datenraten, die man heutzutage zur Verfügung hat, wirklich diese Technologie in einem auch ökonomisch sinnvollen Rahmen durchführen kann.
Man muss sich überlegen, dass man wirklich mit so einem Laserbelichtungssystem, pro System etwa 150 Terabyte an Daten ausbelichten kann. Das ist ne Wahnsinnsmenge!"

Zum Vergleich: Sämtliche Ausgaben der 225 Jahre alten Neuen Züricher Zeitung, das sind rund 2 Millionen Seiten, ergeben nur 70 Terrabyte Daten. Oder anders herum ausgedrückt: Der Laserbelichter bannt pro Tag ungefähr 24000 Zeitungsseiten auf den Film.

Allerdings wäre dieses Verfahren für das Zeitungsarchiv nicht geeignet, weil man ja auf die Daten jederzeit zugreifen möchte. Das Abspeichern der Daten auf Film ist eher eine Sicherungskopie, bestätigt Andreas Hofmann:

"Der große Vorteil wird erst dann richtig sichtbar, wenn es sich um Daten handelt, die man über sehr lange Zeit aufbewahren muss, aus rechtlichen Gründen aufbewahren muss, aber wo man eigentlich ziemlich sicher weiß, dass man die nie mehr braucht und nur im Fall eines Gerichtsstreites wieder rausholen muss."

In diesem Fall dürfte es in einem gut geführten Archiv kein Problem sein die entsprechende Filmrolle zu finden und nur jene Daten wieder in digitale Form umzuwandeln, die man wirklich braucht. - Vorausgesetzt, der Film hält wirklich 500 Jahre und wird so gelagert, dass er nicht schimmelt. Bei der CD hieß es ja anfangs auch, die Daten seien darauf nicht nur vor verschüttetem Kaffee, sondern auch vor Datenverlusten sicher.

Die vierte Lösung wäre, dass man zukünftige Rechner so tun lässt, als wären es heutige Maschinen. Christian Keitel:

"Emulationslösung: sprich ich bastle für jedes neue Betriebssystem, jede neue Rechnergeneration ein Programm, das diesem Betriebssystem und Rechnergeneration dann erlaubt so zu funktionieren, wie heutige Betriebssysteme. Dann könnte ich die heutige Software archivieren und könnte die Daten unverändert darauf abspielen."

Allerdings nicht mit den Möglichkeiten zukünftiger Rechnersysteme, sondern eben nur mit den Möglichkeiten, die die alte Software bietet. Mit dieser Einschränkung könnte man zur Not leben, aber es gibt einen wesentlich triftigeren Grund, weshalb diese Lösung nicht sonderlich beliebt ist:

"Das wirklich Problematische ist eben, dass Emulationslösung entweder ganz, oder gar nicht funktioniert. Und wenn da mal eine Emulationsgeschichte nicht mehr geht, dann sind die Daten weg. Und das ist uns momentan zu teuer und zu riskant."

Bleibt als fünfte Lösung die ständige Speicherung in aktiven Rechnersystemen und das Überspielen der Daten bei jedem Rechnerwechsel. Das hat den Vorteil, dass man zumindest theoretisch jederzeit auf alle Daten zugreifen kann. In der Praxis dauert es dann doch ein Weilchen, zumindest wenn man wirklich große Datenmengen hat.

Walter Ott vom Rechenzentrum des Deutschen Wetterdienstes in Offenbach am Main öffnet mit seiner Magnetkarte die Tür zu einem großen, klimatisierten Saal der den Spitznamen "Schwarzwald" trägt, weil in ihm viele einzelne schwarze Schrank-hohe Kästen frei im Raum stehen und die Lüftung rauscht.

"1) "Ja das sind gewissermaßen ganz große PCs. Jeder dieser Kästen hat 64 Zentralprozessoren intus, insgesamt sind es dann fast zweitausend Prozessoren. Und wir machen damit jeden Tag mehrere Wettervorhersagen."
B) Dafür allein brauchen Sie diese viele Rechnerkapazität, oder hat das noch andere Gründe?
2) Ja wir ham auch noch ne Forschungsabteilung, die sich drum kümmert, dass das jeden Tag ein bisschen besser wird. Neben den eigentlichen Vorhersagen - dafür brauchen wir die Maschine, es gibt keine andere Möglichkeit - neben den eigentlichen Vorhersagen, wird auch noch kräftig geforscht, wie man die Vorhersagen besser machen kann. Und dazu brauchen wir auch ältere Daten, um Unwetter nachzurechnen. Wir haben neulich die Hamburger Sturmflut von 1962 nachgerechnet und hätten dann also im Nachhinein bewiesen, das wir ne sehr gute Chance gehabt hätten rechtzeitig zu warnen.
C) Was für ne Rechenkapazität ham wir denn hier?
3) Oh! Die übliche Angabe sind sogenannte Terraflops. Das sind Billionen Multiplikationen pro Sekunde. Und davon haben wir drei Stück, also drei Billionen Multiplikationen pro Sekunde und die brauchen wir auch.
E) Wir stehn jetzt hier in einem Gang, der zwei - ich sage mal so - Rechnertypen trennt. Was hat‘s damit auf sich?
5) Auf der einen Seite steht der Rechner, der die eigentliche Vorhersage macht, das ist ne große IBM-Maschine. Auf der anderen Seite werden die Daten dann aufgehoben über ne längere Zeit. Das ist ein automatisches Archivmedium der Firma StorageTEK, beinhaltet etwa 18000 Magnetbänder. Jeder Magnetband fasst ca. 60 GB. Und dort heben wir einerseits die Vorhersagen auf, die wir jeden Tag machen, für etwa ein Jahr und dazu noch Messwerte der letzten 40 Jahre etwa.
F) Und das ist sozusagen das Kapital, mit dem sie wuchern können und mit dem sie dann auch die Sturmflut nachrechnen können?
6) Ja genau so ist es. Ne Vorhersage kann man immer wieder nachrechnen. Aber ein Messwert der irgendwo gewonnen wurde, wenn der verschwunden ist, dann haben wir ein Problem. Dann kann man nie wieder klimatologische Untersuchungen machen, Änderung der Temperatur oder andere Dinge. Dann ist ein echter Verlust aufgetreten. Und da bemühen wir uns natürlich das gar nicht vorkommen zu lassen.
G) Dann wächst das ja jedes Jahr um eine gewisse Datenmenge dieser Speicher mit den Rohdaten, sag ich jetzt mal:
7) Ja, das ist ungefähr so: wir kriegen pro Tag etwa 200 MB rein an Rohdaten, die sind schon stark komprimiert. Wir achten sehr darauf, dass wir keinen Platz verschwenden. Und wenn sie das hochrechen mal 365, das ist der Zuwachs jedes Jahr nur an Messwerten."

73 GB ergibt das jedes Jahr, die dauerhaft gespeichert werden müssen. Mit den verschiedenen Wetterberechnungen - täglich ungefähr 250 GB - sind das im Jahr 100 TB. Die Wetterberechnungen werden allerdings nur ein Jahr lang aufgehoben.
Alles was in den Computerschränken des "Schwarzwaldes" nicht mehr gebraucht wird, wandert, so wie früher beim Papier, ins Archiv. Genauer gesagt in die drei Magnetbandsilos, jedes etwa so groß, wie eine Heimsauna:

"J) Wir sind jetzt ein paar Schritte weiter gegangen zu diesem, ja ich sage mal "Archivrechner". Was spielt sich denn da ab in dem Ding?
11) In dem "Ding" sind Regale innen und außen angeordnet. Und in der Mitte rotiert ein automatisch angesteuerter Roboterarm. Der nimmt die Kassetten aus den Regalen und legt sie dann in eine Lese-Schreib-Einheit. Dann wird entsprechend gewickelt bis der Datensatz gefunden ist, den der jeweilige Nutzer braucht - er muss nicht wissen wo er steht, er muss nur sagen: "Ich hätte gerne die Daten von Stuttgart, an Weihnachten 1975 und dann wird das automatisch in ne Bandanforderung umgesetzt. Das Band wird automatisch aufgelegt und der Datensatz wird geliefert.
H) Kann man sagen, was das Ganze wert ist? Also ich meine jetzt dieser Maschinenpark, den sie einfach brauchen?
8) Also der Maschinenpark insgesamt inklusive der Vorhersage-Rechner ist etwa 30 Millionen Euro wert. Er ist allerdings schon ein paar Jahre alt. Und die ganze Infrastruktur kommt noch hinzu, Wartungskosten und so weiter, also es geht schon in eine für Normalhaushalte nicht mehr finanzierbare Größenordnung.
I) Und wenn man nur diese Rohdaten-Aufbewahrung nimmt, kann man da auch sagen, was das ungefähr kostet?
9) Wenn sie allein das Speichermedium betrachten, diese Automatik hat uns etwa 1,5 Millionen Euro gekostet. Ein Band mit 60 GB Fassungsvermögen kostet etwa 60 Euro. Und es muss sich auch jemand drum kümmern; sagen wir eine Person rund um die Uhr - nicht immer die Gleiche - aber so in der Größenordnung liegen die Aufwände."

Wobei auch die 200 Bänder mit Sicherungskopien im Tresor in einem anderen Gebäude mit einbezogen wurden. Alle drei bis fünf Jahre sind neue Rechner und neue Magnetbänder fällig. Das geht also ganz schön ins Geld.

Wenn man sich nun vorstellt, wie viele Büchereien, Museen, Archive, Universitäten und Firmen wenigstens ihre wertvollsten digitalen Daten für lange Zeit speichern sollten, dann wird einem schwindelig. - In der Deutschen Bibliothek im benachbarten Frankfurt am Main nennt Hans Liegmann ein paar Zahlen:

"Ich habe eine Statistik, dass 2002 5 Milliarden GB Daten produziert wurden, weltweit. Das ist also die 37000-fache Datenmenge aller Bücher, der Library of Congress, also einer der größten Bibliotheken der Welt in Washington. Und es entspricht der Speicherkapazität von 83 Millionen Notebooks. Das ist also diese Gesamtsumme 5 Milliarden GB in einem Jahr. Davon sind nur 0,01 % tatsächlich auf Papier produziert worden; 92 % digital und der Rest in anderen Aufzeichnungsmethoden."

Selbst wenn man mal annimmt, dass nur ein Prozent dieser Daten wirklich Speicherns-wert wäre, ist diese Aufgabe gigantisch. Und obwohl die Dänen bereits seit 1972 digital archivieren, ist diese Aufgabe weltweit noch nicht gelöst. In Deutschland wurde erst 2003 NESTOR gegründet, eine Arbeitsgruppe, die Hans Liegmann leitet.

"Nestor ist ein kooperatives Projekt mit sechs Partnern. Es ist gefördert vom Bundesminister für Bildung und Forschung und hat die Aufgabe ein Kompetenznetzwerk Langzeitarchivierung aufzubauen. D.h. alle Ressourcen, Personen, Organisationen, Institutionen in Deutschland, für die das Thema Langzeiterhaltung digitaler Information eine Aufgabe ist zu unterstützen, zusammenzubringen, Synergien bei der Aufgabenlösung zu fördern und eine Kommunikationsplattform bereit zu stellen."

Dabei ist die Deutsche Bibliothek ein Kristallisationspunkt. Ihre Aufgabe geht weit über die örtlicher Büchereien hinaus, erklärt Tobias Steinke, der in der Deutschen Bibliothek für Informationstechnik zuständig ist:

"Die Deutsche Bibliothek ist die Nationalbibliothek von Deutschland und als solche hat sie die Aufgabe jede in Deutschland erschienene Publikation zu archivieren. Dafür gibt es eine gesetzliche Grundlage nach der die Verleger jeweils bei uns abliefern müssen ihre neu erschienenen Publikationen und wir haben die zu sichern."

Das sind im Augenblick vor allem Bücher, Zeitschriften, aber auch Dissertationen. Darunter sind schon jetzt einige zehntausend Datenträger. In Zukunft kommt wahrscheinlich die Sicherung aller digitalen deutschen Werke hinzu, also auch die Internet-Seiten auf allen deutschen Webservern.

Tobias Steinke ist auch der örtliche Projektleiter von KOPAL:

"KOPAL, das ist ein deutsches Projekt zum kooperativen Aufbau eines Langzeitarchives digitaler Information. D.h. hier geht es um die konkrete Implementierung eines Archivsystems, das sich speziell der Langzeitarhcivierung widmet."

Dabei sollen die Bibliotheken sagen, was sie brauchen, und die "Gesellschaft für wissenschaftliche Datenverarbeitung in Göttingen" wird das Archiv als Dienstleister betreiben. Die Rechnerarchitektur stellt IBM zusammen.

Die Software für die Archivnutzer, also zunächst die Deutsche Bibliothek und die Staats- und Universitätsbibliothek in Göttingen, wollen diese selbst entwickeln und später anderen Nutzern zur Verfügung stellen.

Man kann sie sich ganz entfernt wie einen Browser oder ein Datenübermittlungs-Programm vorstellen, dass sämtliche digitalen Daten zum Dienstleister überträgt. Dadurch sollen sich die Büchereien nicht mehr Formaten beschäftigen müssen, oder mit Datenträgern und deren Lagerung.

"Wir ham ein sehr heterogenes Feld von Dateiformaten. Die müssten alle archiviert werden können. Die Datenträger, da gehn wir einfach davon aus, dass bei diesem Rechenzentrum ein möglichst geeigneter Datenträger für alles genutzt wird. D.h. wir würden wenn eine CD-ROM haben, die Daten von dieser CD-ROM lösen und erst dann in das Archiv einspielen."

Dort bei der GWDG kümmert man sich dann um die Speicherung. Das dürfte vorläufig so ähnlich aussehen, wie im Rechenzentrum des Deutschen Wetterdienstes, denn es gibt ja noch keine brauchbaren Langzeit-Datenträger.

"Ideal wird es nicht sein, aber unsere Aufgabe ist es die Daten so zu erhalten, dass wir den Stab sozusagen an die nächste Generation übergeben können. Wir werden keine finalen Lösungen für das Langzeiterhaltungsproblem erreichen können mit unseren Mitteln."

Da zunehmend Musik, Bilder und Filme digital vorliegen, wächst der Datenberg rapide. Dennoch meint Hans Liegmann:

"Die Menge ist nicht der Schrecken sondern eigentlich die Organisation. Wie kommen diese Objekte tatsächlich in die Bibliothek hinein? Wenn man für eine bestimmte Dokumentkategorie mal einen bestimmten Weg gefunden hat, ist dann die Anzahl der Dokumente nicht mehr so entscheidend, die über diesen Weg kommen."

Es geht also erst mal darum zu klären wie das geeignete Verfahren aussieht, um die Datenflut in den Griff zu bekommen. Und das möglichst nicht nur bei uns, sondern international abgestimmt, um die wertvollen Daten weltweit nutzen zu können. Dann kann man einen Teil der Arbeit von Rechnern automatisch erledigen lassen. Allerdings drängt die Zeit. Warum erklärt Hans Keitel so:

"Ja die Zeit drängt eben viel mehr als bei Papierunterlagen, weil wenn wir von 'ner Behörde den Anruf bekommen: "Unserer Registratur ist voll!", dann können wir da hin gehen, die Registratur angucken und dann übernehmen wir normalerweise 1-5% der Akten. Das können Sachen sein, die zum Teil noch aus dem 19. Jahrhundert sind. Das Papier ist stabil und lesbar ohne maschinelle Hilfsmittel. Bei digitalen Unterlagen, bei digitalen Daten ist das eben nicht der Fall. Weder sind die Datenträger so lange haltbar noch verfügen wir über Programme, die diese Daten noch lesen können, noch verfügen wir über Laufwerke, die sie physisch wieder mal zum Leben erwecken können."

Im Augenblick sind die meisten Bibliotheken in der gleichen Situation, wie das Staatsarchiv in Ludwigsburg: Sie hecheln den digitalen Datenbergen hinterher und retten erst mal, was verloren zu gehen droht. Eigentlich sollten aber neue digitale Werke genauso schnell verfügbar sein, wie neue Bücher. Vor allem in wissenschaftlichen Büchereien, denn Wissenschaft braucht aktuelles Wissen.

"Wissenschaft lebt ja davon aufzubauen. Also aus dem was geforscht wird, was gelehrt wird, immer wieder neue Schichten zu bilden, die sich gegenseitig referenzieren. Wenn wir jetzt beginnen in eine Schicht hinein zu arbeiten, die nur eine begrenzte Lebensdauer hat, zerstören wir eigentlich dieses Aufbauprinzip der Wissenschaftsgenerationen übereinander. Und das ist ein ganz entscheidender, bedauerlicher Verlust, wenn dem so wäre. Und dort müssen wir uns beeilen! D.h. mit jedem Tag wächst die Gefahr, dass eine bestimmte Informationschicht uns verloren geht. Und dieser Bedrohung, die wir tatsächlich so sehen, müssen wir uns stellen als Bibliotheken, als Archive und als Museen auch."

Digitale Langzeitspeicherung entscheidet also mit über die Zukunft des Wissenschafts-Standortes Deutschland.

Es zeichnet sich bereits jetzt ab, dass es das ideale Datenformat und den idealen Datenspeicher nicht geben wird, sondern dass es darum gehen wird die Vielfalt und den Wandel so gut wie möglich zu organisieren. Dabei hat auch die IT-Branche noch einige Hausaufgaben zu machen:

"Oft ist es ja so, das bei Systemeinführung gar nicht dran gedacht wird, wie krieg ich Daten überhaupt raus, geschweige denn in Formaten, die zur Langzeitarchivierung taugen."

Wenn bei der Einführung neuer Software und neuer Datensätze, etwa der Gesundheitskarte, oder der elektronischen Verwaltung weiterhin nicht an die Speicherung gedacht wird, dann müssen Archive und damit der Bürger später die Zeche zahlen. In Zeiten leerer Kassen fällt uns das immer schwerer. In armen Ländern ist das unbezahlbar. Deshalb fürchtet der Historiker:

"Das Weltgedächtnis, wenn man das mal so pathetisch ausdrücken darf, wird da erhebliche Einbußen haben, in den nächsten Jahrzehnten."

Es könnte sein, dass Historiker in ein paar hundert Jahren deshalb über unsere Zeit nur sehr wenige Daten haben und deshalb aus ihrer Sicht von einer "Digitalen Katastrophe" sprechen.

Szene 2: Atmosphäre Lüftergeräusche, Tastaturklappern, gelegentlich ein "Beep" oder "Bing" , wie es bei Rechnern oft zu hören ist.

Sprecherin : "Herr Siau (chin. Klein), bitte schaun Sie doch mal nach, wieso es vor fast hundert Jahren in Europa zu einem solch raschen Rückgang der Bevölkerung kam."

Sprecher : "Ojeh, das wird schwierig... - Hier hab ich die Europäische Gemeinschaft. Schaun wir mal in deren Pressemitteilungen. Da ist im Frühjahr 2005 nur noch eine übrig: (liest vor:)
Sechs europäische Länder haben die EU aufgerufen, über die Vernetzung nationaler Projekte eine elektronische europäische Bibliothek zu schaffen. Damit solle das kulturelle und wissenschaftliche Erbe Europas weltweit zugänglich gemacht werden..."

Sprecherin : "Ist das Alles? Wieso ist denn davon nicht mehr übrig?"

Sprecher : "Ganz einfach Frau Hisa (chin. Sommer): Die Bevölkerung ging zurück, die Wirtschaftskraft sank und irgend wann fehlte das Geld. Also schaltete man die elektronischen Archive ab. Schluss der Geschichte!"

Das könnte sie auch interessieren

Entdecken Sie den Deutschlandfunk