Sonntag, 19.05.2019
 
StartseiteComputer und KommunikationRichtig löschen fast unmöglich23.02.2013

Richtig löschen fast unmöglich

Die moderne Festplattenalternative SSD stellt Datenschützer und -retter vor neue Probleme

Sogenannte SSD-Festplatten werden wegen ihrer schnellen Zugriffsgeschwindigkeit immer gefragter. Da sie fast nur aus Halbleitern bestehen, fallen bei ihnen die zahlreichen mechanischen Ausfallursachen herkömmlicher Festplatten weg. Und doch sind die kleinen Wunderplatten keinesfalls unfehlbar.

Von Michael Gessat

Ein Solid State Drive (SSD) in einer Illustration.  (picture alliance / dpa - Simon Chavez)
Ein Solid State Drive (SSD) in einer Illustration. (picture alliance / dpa - Simon Chavez)

Manfred Kloiber: Sie sind rasend schnell und völlig lautlos – und allmählich werden sie auch bezahlbar. Kein Wunder also, dass sie inzwischen in immer mehr Firmen- und Privatrechnern zu finden sind – die SSDs, die "Solid State Drives", Festplatten, die genaugenommen gar keine sind, sondern mächtige Festkörperspeicher. Solche SSDs sehen aus wie ganz normale 2,5-Zoll Notebookfestplatten und können leicht da eingebaut werden, wo bislang eine herkömmliche Festplatte saß. Michael Gessat, Sie haben sich mit den SSDs näher beschäftigt. Wenn die Festplatte nur noch aus Halbleitern besteht – ohne rotierende Magnetscheibe – gehörenden dann Plattenfehler und Datenverlust für immer der Vergangenheit an?

Michael Gessat: So stellen das jedenfalls manchmal die Hersteller in ihren Werbeaussagen dar. Und es stimmt ja auch: Bei einer SSD scheiden eben wirklich die ganzen mechanischen Ausfallursachen, also zum Beispiel kaputte Laufwerksmotoren, Probleme mit der Lesekopfsteuerung oder eben auch dieser berühmte Headcrash aus. Solche physikalischen Pannen hatten ja auch meist die Eigenschaft, eben ganz plötzlich daherzukommen und dann hat's noch einmal klack, klack, klack gemacht oder es hat sich gar nichts mehr gerührt – und dann war die Platte halt Schrott.

Kloiber: Tja, oder, wenn es um sehr wichtige Daten ging und man hatte sehr viel Geld, war es dann eher ein Fall für ein professionelles Datenrettungsunternehmen.

Gessat: Genau. Aber die brauchen jetzt wohl trotzdem keine Angst zu haben, durch dieses Aufkommen von vermeintlich unkaputtbaren SSDs ihre Geschäftsgrundlage zu verlieren. So sehen das jedenfalls die Unternehmen selbst. Laut den bisherigen Erfahrungen bei den Datenrettungsunternehmen sind also die Ausfallraten absolut vergleichbar. Also der prozentuale Anteil von Datenrettungen bei SSDs deckt sich mit deren Vorkommen im Markt. Und das heißt aus Anwenderperspektive: Wer sich mit einer SSD grundsätzlich in Sicherheit vor Datenverlust wähnt, der liegt da falsch.

Kloiber: Was sind denn die wichtigsten Ursachen für diesen Datenverlust bei SSDs?

Gessat: An spezifischen Fehlerquellen gibt es da Überspannungsschäden. Es gibt natürlich Schäden an den verwendeten Flash-Speicherchips und anscheinend gar nicht selten fehlerhaft Controllersoftware.

Kloiber: Also wir halten fest: Solid State Drives sind deutlich schneller und robuster als herkömmliche Festplatten. Obendrein – das ist nicht unwichtig für mobile Anwendungen – wesentlich energieeffizienter. Aber sie haben auch ihre Tücken und die liegen auch in der verwendeten Flash-Technologie.

Beginn Beitrag:

Herkömmliche Festplatten sind magnetische Speichermedien – SSDs dagegen elektronische. Sie ähneln damit dem Hauptspeicher eines Computers, dem RAM: Bits und Bytes werden durch elektrische Ladungen und Spannungen repräsentiert. Im Gegensatz zu den RAM-Chips im Hauptspeicher blieben die Daten in den Flash-Chips der SSDs aber auch nach dem Abschalten des Stroms – also dauerhaft erhalten. Flash-Speicher haben allerdings zwei prinzipielle Nachteile. So werden in Flash-Chips die Daten blockweise abgelegt. Wird nur ein Bit verändert, muss der gesamte Block erst gelöscht und dann in neu geschrieben werden – das kostet Zeit. Und: Jede einzelne Speicherzelle übersteht nur eine begrenzte Anzahl von Schreibzyklen, je nach Bauart zwischen 10.000 und 100.000. Daher ist die Steuerung eine SSD-Laufwerks so programmiert, so lang es geht in freie Bereiche zu schreiben. Und sie versucht, die Speicherzellen möglichst gleichmäßig zu beanspruchen.

"Und das bedeutet, wenn Sie sich jetzt einen Bericht schreiben, und den 20 Mal abändern, dann liegt der, wenn Sie eine jungfräuliche Platte haben, 20 Mal in den verschiedenen Versionen auf dieser SSD. Das bedeutet für die Datenrettung einen Vorteil, wenn jetzt mal eine Speicherzelle wirklich zerstört wäre, es gibt noch genügend andere, aber es bedeutet auf der anderen Seite natürlich auch, irgendeiner muss nachher entscheiden: Welche Version wird denn genommen?"

Grundsätzlich, so Peter Böhret, Geschäftsführer bei Kroll Ontrack, ist der Aufwand für das Datenretten von SSDs aber deutlich höher als bei klassischen Festplatten. In einer SSD stecken nämlich je nach Typ und Kapazität 8, 16 oder 32 einzelne Flash-Speicherchips - und die Nutzdaten werden von einem Controllerchip ähnlich wie bei einem Festplattenbündel, einem sogenannten RAID-System, verteilt. Ist der Controller defekt, bleibt ein gut verteiltes Datenpuzzle:

"Und hier gibt es keine Standards, ähnlich wie beim RAID-Controller auch, das ist teilweise mühevolle Re-Engineering-Arbeit, um im Prinzip die Verteilstruktur rauszubekommen, sprich den Verteilalgorithmus herauszubekommen."

Auch wie eine SSD die Schreibstrategien "Geschwindigkeit" und "gleichmäßige Auslastung" konkret umsetzt - wie also der Controllerchip Daten zu Optimierungszwecken hin und her packt – auch dafür gibt es keine Standards. Das hat eine sehr gravierende Konsequenz: Auf SSDs ist es praktisch unmöglich, eine bestimmte Datei definitiv und verlässlich zu löschen. Für herkömmliche Festplatten geht das mit einem sogenannten "Wipe"- oder "Shredder"-Befehl, hier wird dann der physische Speicherort einer Datei, also etwa ein bestimmter Sektor auf einer bestimmten Spur, mehrfach überschrieben. Steven Swanson von der University of California in San Diego hat solche zum Beispiel auch von Behörden und Militär vorgeschriebene und zertifizierte Löschverfahren an Daten auf SSDs ausprobiert – und die Laufwerke anschließend genauso wie beim Datenretten auf verbliebene Spuren untersucht:

"Wir haben die Laufwerke aufgemacht, die Flash-Chips herausgenommen und im Labor die Roh-Daten ausgelesen und analysiert. In allen Fällen haben wir Teile der ursprünglichen Bitmuster gefunden – das heißt, die gebräuchlichen Überschreibtechniken funktionieren nicht."

Das ist nicht einmal eine große Überraschung – denn was die SSD dem Betriebssystem zurückmeldet, hat mit der physikalischen Realität auf den Speicherchips nicht viel zu tun. Für ein zuverlässiges Löschen ist daher bei einer SSD der sogenannte "Secure Erase"-Befehl vorgesehen. Der macht allerdings gleich auf dem ganzen Laufwerk Tabula rasa – wenn er denn korrekt funktioniert. Aber die amerikanischen Informatiker fanden bei ihren Untersuchungen auch nach dem angeblich "sicheren Löschen" per "Secure Erase" auf bestimmten SSD-Modellen noch aussagekräftige Datenreste. Die Ursache: Fehler in der Controller-Software.

Das könnte sie auch interessieren

Entdecken Sie den Deutschlandfunk