Abstürze sind auch bei teuersten SCSI- Platten nicht auszuschließen. Besonders wenn ständig laufende Platten eines Servers wegen Wartungsarbeiten mal abgeschaltet werden müssen, könnten deren Abtastköpfe mit dem feinen Abrieb verkleben, der sich im Lauf der Zeit an den nie benutzten Park-Positionen gebildet hat. Beim Neustart reißen dann die Köpfe ab oder sie hobeln auf der magnetischen Schicht - "Mechanische Datenverarbeitung" heißt das in der gebeutelten Fachwelt. Nur ein Spezialunternehmen könnte dann noch die Daten retten. Die Kosten erreichen je nach Plattengröße schon mal 5000 Euro, eine einzige verschlüsselte Datei kann auch schon mal mit 2500 Euro zu Buche schlagen. Das wäre aber immer noch günstiger, als der komplette Verlust sensibler Firmendaten.
Datensicherung gehört also zur Pflichtübung auch kleiner und mittlerer Unternehmen, deren Datenbank aus 50 oder mehr Festplatten bestehen kann. Gesichert werden könnten die Daten in Echtzeit, während der Arbeit der Mitarbeiter. Christoph Gollmick optimierte mit seiner damaligen Kollegin Uta Störl an der Friedrich-Schiller-Universität Jena parallel arbeitende Datensicherungs-Systeme: "Herkömmliche, nicht-parallele Systeme sichern die zu sichernden Daten, die unter Umständen auf mehrere Geräte verteilt sein können, hintereinander. Das heißt, es muss gewartet werden, bis jedes einzelne Gerät nacheinander seine Daten an ein einzelnes Sicherungsgerät geliefert hat. Das dauert natürlich länger, als würden gleich mehrere Sicherungseinheiten parallel die Dateien abspeichern." In dem Fall der aus 50 Festplatten bestehenden Datenbank könnte eine Sicherung gespeichert werden auf 16 Festplatten: "Unser Modell sieht dagegen vor, dass alle Daten in eine vorgegebene Anzahl von Teilstücken unterteilt werden, die wiederum auf verschiedene Geräte gesichert werden können. Das Verfahren verteilt die einzelnen Teilstücke nach vorher definierten Kriterien auf die Sicherungsstationen", so Gollmick. Dabei wandert nicht mehr eine komplette Datei auf nur eine Platte, sondern die Dateien werden als Datenpakete, also als dadurch jeweils abgeschlossene winzige Dateien in Echtzeit auf die Platten verteilt.
Das Wiederaufspielen verlorengegangener Daten geschieht im laufenden Betrieb und erfordert keine neuen Datensicherungsgeräte, sagt Christoph Gollmick. Auch mit den längst gesicherten Daten alter Konfiguration wäre das System aus Jena kompatibel: "Ich kann beispielsweise so auch Daten, die vorher sequenziell auf verschiedene Bänder gesichert wurden, parallel wieder einspielen, wenn mir die Geräte dafür zur Verfügung stehen. Das Verfahren hängt weder von den Daten, noch von den Inhalten ab. Es geht allein darum, wie Daten gesichert werden und welche Ressourcen dabei benutzt werden. Der wesentliche Vorteil unserer Methode liegt darin, dass auch bestehende Konfigurationen optimiert werden können. Es muss dabei also nicht neue, schnellere Hardware angeschafft werden." So könnten unter Umständen mehrere alte Bandlaufwerke in parallelem Betrieb genauso schnell sichern wie ein einziges modernes und schnelles Sicherungsgerät.
Das hoffnungsvolle Fazit für geplagte Systemadministratoren: In Jena wurde kein neues Verfahren entwickelt, sondern getestet, wie weit bestehende Verfahren sich optimieren lassen - und das gelingt erfolgreich. "Die parallele Sicherung ist sicherlich auch in den Produkten der großen Datenbankhersteller enthalten, doch unterscheiden sie sich oftmals stark voneinander. Wir versuchten dagegen, wie diese Backup und Recovery-Verfahren mit Parallelität zu betreiben. Das resultierende Modell setzt uns nun in die Lage, jedes beliebige parallele Sicherungsverfahren zu erzeugen und auszutesten."
Datensicherung gehört also zur Pflichtübung auch kleiner und mittlerer Unternehmen, deren Datenbank aus 50 oder mehr Festplatten bestehen kann. Gesichert werden könnten die Daten in Echtzeit, während der Arbeit der Mitarbeiter. Christoph Gollmick optimierte mit seiner damaligen Kollegin Uta Störl an der Friedrich-Schiller-Universität Jena parallel arbeitende Datensicherungs-Systeme: "Herkömmliche, nicht-parallele Systeme sichern die zu sichernden Daten, die unter Umständen auf mehrere Geräte verteilt sein können, hintereinander. Das heißt, es muss gewartet werden, bis jedes einzelne Gerät nacheinander seine Daten an ein einzelnes Sicherungsgerät geliefert hat. Das dauert natürlich länger, als würden gleich mehrere Sicherungseinheiten parallel die Dateien abspeichern." In dem Fall der aus 50 Festplatten bestehenden Datenbank könnte eine Sicherung gespeichert werden auf 16 Festplatten: "Unser Modell sieht dagegen vor, dass alle Daten in eine vorgegebene Anzahl von Teilstücken unterteilt werden, die wiederum auf verschiedene Geräte gesichert werden können. Das Verfahren verteilt die einzelnen Teilstücke nach vorher definierten Kriterien auf die Sicherungsstationen", so Gollmick. Dabei wandert nicht mehr eine komplette Datei auf nur eine Platte, sondern die Dateien werden als Datenpakete, also als dadurch jeweils abgeschlossene winzige Dateien in Echtzeit auf die Platten verteilt.
Das Wiederaufspielen verlorengegangener Daten geschieht im laufenden Betrieb und erfordert keine neuen Datensicherungsgeräte, sagt Christoph Gollmick. Auch mit den längst gesicherten Daten alter Konfiguration wäre das System aus Jena kompatibel: "Ich kann beispielsweise so auch Daten, die vorher sequenziell auf verschiedene Bänder gesichert wurden, parallel wieder einspielen, wenn mir die Geräte dafür zur Verfügung stehen. Das Verfahren hängt weder von den Daten, noch von den Inhalten ab. Es geht allein darum, wie Daten gesichert werden und welche Ressourcen dabei benutzt werden. Der wesentliche Vorteil unserer Methode liegt darin, dass auch bestehende Konfigurationen optimiert werden können. Es muss dabei also nicht neue, schnellere Hardware angeschafft werden." So könnten unter Umständen mehrere alte Bandlaufwerke in parallelem Betrieb genauso schnell sichern wie ein einziges modernes und schnelles Sicherungsgerät.
Das hoffnungsvolle Fazit für geplagte Systemadministratoren: In Jena wurde kein neues Verfahren entwickelt, sondern getestet, wie weit bestehende Verfahren sich optimieren lassen - und das gelingt erfolgreich. "Die parallele Sicherung ist sicherlich auch in den Produkten der großen Datenbankhersteller enthalten, doch unterscheiden sie sich oftmals stark voneinander. Wir versuchten dagegen, wie diese Backup und Recovery-Verfahren mit Parallelität zu betreiben. Das resultierende Modell setzt uns nun in die Lage, jedes beliebige parallele Sicherungsverfahren zu erzeugen und auszutesten."