Suchen

Status quo beim Disk-to-Disk Backup Teil 2 Festplattenbasierendes Backup – Basis für CDP, Deduplizierung und Snapshots

| Autor / Redakteur: Andrew Brewerton, Technical Director bei Bakbone Software / Nico Litzel

Ein Backup muss konsistent sein – eine Kopie von Daten, die mitten im Backup-Prozess aktualisiert wurde, kann nicht zuverlässig zurückgespeichert werden. Bei konventionellen Backup-Methoden werden die Anwendungen normalerweise über Nacht für das Backup offline genommen. Neuere Backup-Methoden, wie Snapshots und CDP, wurden sind aber so ausgelegt, dass sie jederzeit funktionieren.

Firmen zum Thema

Mit einer asynchronen Replizierung im Hauptsitz muss nur noch eine Generation von Backups vor Ort gelagert werden. Werden die Daten zusätzlich dedupliziert, wird weniger Bandbreite benötigt.
Mit einer asynchronen Replizierung im Hauptsitz muss nur noch eine Generation von Backups vor Ort gelagert werden. Werden die Daten zusätzlich dedupliziert, wird weniger Bandbreite benötigt.
( Archiv: Vogel Business Media )

Snapshots weisen eine relativ grobe zeitliche Granularität auf, sodass sie mit größerer Wahrscheinlichkeit ein vollständiges und konsistentes Backup erzeugen. Allerdings gehen alle seit dem letzten Snapshot gemachten Updates verloren. Beim feinkörnigen Ansatz von CDP ist ein Datenverlust weniger wahrscheinlich, aber es kann schwieriger sein, das System in einen konsistenten Status zurückzuversetzen.

Wie sich ein konsistentes Backup erreichen lässt, ist von der Anwendung oder von den Daten abhängig. Zum Beispiel muss bei unstrukturierten Dateisystemen eine fehlerfreie Dateiversion gesucht werden – normalerweise die letzte geschlossene oder abgespeicherte Version. Bei Dateien, die lange Zeit geöffnet bleiben können, muss eine Auslagerung des Dateisystems initiiert und in den Metadaten ein Pointer auf dieses erzeugt werden.

Um Daten wiederherzustellen, wird dann der richtige Zeitpunkt im CDP-Backup gesucht, anschließend werden die Daten zurück auf den Applikationsserver kopiert und dann die Anwendung neu gestartet. Allerdings hat das zur Folge, dass je mehr Daten vorhanden sind und je langsamer das Netzwerk ist, umso länger eine Wiederherstellung dauert.

Nicht alle Daten müssen sofort zur Verfügung stehen

Glücklicherweise gibt es seit Kurzem Verfahren, mit denen dieser Prozess beschleunigt wird. Diese liefern der Anwendung eine Kurzfassung der wiederhergestellten Daten, die ausreicht, um die Anwendung zu starten, auch wenn noch nicht alle Daten wiederhergestellt wurden. Ein Software-Agent, der neben der Anwendung läuft, kontrolliert dann die Datenanforderungen und priorisiert den Rückspeicherungsprozess entsprechend – dadurch werden die Daten dann in der Reihenfolge, in der sie benötigt werden, zurückgespeichert.

Mit solchen Verfahren können Anwendungen in weniger als zehn Minuten wieder zum Laufen gebracht werden, da die schnell wiederhergestellte Shell-Datei nur einige wenige Megabyte groß ist. Natürlich dauert es noch eine ganze Weile, bis die Anwendung vollständig wieder zur Verfügung steht, aber zumindest können die Anwender praktisch sofort wieder mit ihr arbeiten.

Ein anderer Aspekt, der die Wahl zwischen Snapshot und CDP beeinflusst, ist die gegenseitige Abhängigkeit der Anwendungen und der zugehörigen Dateien. Bei zu großer Abhängigkeit ist es schwieriger, einen konsistenten Wiederherstellungspunkt zu finden. Eine potenzielle Lösung besteht darin, eine Software auszuwählen, die anwendungsorientiert arbeitet und die eine intelligente, granulare Wiederherstellung erlaubt, da sie die jeweiligen Abhängigkeiten kennt.

Weiter mit: Energie- und Effizienzaspekte

(ID:2040242)