Online-Umfrage zum CeBIT-Kompendium „Backup & Recovery“ von Storage-Insider.de, Teil 9 Zero Downtime durch virtuelles Stand-by-System

Autor / Redakteur: Richard Zinner / Rainer Graefen

Ein Snapshot ist erst dann die Antwort in einer Recovery-Strategie, wenn mit den Pointern reale Datenblöcke kopiert wurden, postulierte Richard Zinner von Storagecraft. im Gespräch mit Storage-Insider.de.

Firmen zum Thema

Richard Zinner, Head of Technical Department StorageCraft
Richard Zinner, Head of Technical Department StorageCraft
(Foto: StorageCraft)

Dateien lassen sich mit Backup-Software File um File auf ein zweites Medium verdoppeln. Mit dem wachsendem Datenbestand eines Unternehmen steht man allerdings irgendwann auf verlorenem Posten, wenn ein Vollbackup gemacht werden soll.

Selbst die performanteste Hardware braucht Zeit um Daten von A nach B zu kopieren. Das hat das Vollbackup von Beginn an in Verruf gebracht und dazu geführt, dass nun Inkremente und Differenzen die Datensicherung dominieren. Elf Antworten von Storagecraft, die das Verhältnis von dem Ganzen zu seinen Teilen beleuchtet.

Warum sind Backup-Konzepte wie GFS (Grandfather-Father-Son) oder Tower of Hanoi heutzutage nicht mehr sinnvoll anzuwenden?

Zinner: Letzten Endes sind diese Modelle gerade unter dem Blickpunkt eines modernen und effektiven Backup-Managements einfach zu unhandlich geworden. Bei diesen Konzepten ist es unerlässlich, die Medien zuverlässig nach einem vorgegebenen Plan zu wechseln. Ansonsten funktioniert das ganze Konzept nicht mehr und die Konsistenz des Backups ist nicht mehr gewährleistet.

Unter Umständen gehen dann im Disaster-Fall viele Daten verloren. Auch das regelmäßige Überprüfen ist sehr zeitaufwändig, da dafür immer alle Medien gelesen werden müssen. Jedoch ist die Überprüfung der Backups eine zentrale Bedingung für eine wirklich zuverlässige Sicherung.

Kontinuierliche Snapshots oder differenzielle Images scheinen das Backup-Konzept für moderne IT-Umgebungen zu sein. Stimmt das oder zeichnen sich Alternativen ab?

Zinner: Kontinuierliche Snapshots im laufenden Betrieb gewährleisten vor allem bei Fehlern kürzere Intervalle für das Zurücksetzen des Systems. Wichtig dabei ist, dass alle einzelnen Snapshots gesichert werden.

Nur so lässt sich der Vorteil kürzerer Snapshot-Intervalle auch ausspielen, wenn das System zum Beispiel durch einen Festplattenfehler ganz ausfällt. Bei den heutigen Datenmengen kann ein solches Backup realistisch gesehen nur noch differentiell oder noch besser inkrementell geschehen.

Gerade auf Sektor-Ebene – also nicht auf File-Ebene - erreicht man hier enorme positive Effekte, was die Datenlast und Systemauslastung angeht. Voll-Backups würden das System im laufenden Betrieb zu sehr belasten und erlauben auch weit weniger Snapshots.

Spricht eigentlich die Datentransferrate des Internets beim Online-Backup gegen das Backup in der Cloud? Wie würden Sie Einsatzszenarien definieren

Zinner: Die Transferrate ist in der Regel kein Problem, gerade wenn inkrementelle und auf Sektorebene erstellte Backups in die Cloud zu übertragen sind. Notwendig sind lediglich die Internet-Anbindung an sich und die Entscheidung, eine Cloud für die Datensicherung zu benutzen.

Als Alternativ-Szenario empfiehlt es sich, die Sicherung zuerst lokal zu speichern und auch lokal zu prüfen. So kann man sicher sein, das die Backups zuverlässig erstellt wurden. Danach erfolgt die Sicherung zum Beispiel über einen Cloud Service offsite in der Wolke. Lokal gespeicherte Backups erlauben dann als zusätzliche Rückversicherung ein schnelles Wiederherstellen zum Beispiel bei einem Serverausfall.

Glaubt man dem Marketing, dann ist das Disaster Recovery in wenigen Minuten erledigt. Bitte erläutern Sie, 1. welche Vorgaben (virtuelle Maschine) dafür erfüllt sein müssen und 2. ob diese Aussage auch beim Austausch des Host-Rechners gilt.

Zinner: Generell bieten Image Backups bereits den Vorteil, ein Disaster schneller als dateibasierte Backups zu beheben. Um die Ausfallzeit nun auf wenige Minuten zu reduzieren, bedienen sich unsere Lösungen dazu virtueller Stand-by-Systeme.

Das heißt, man weicht bei einem Systemausfall auf eine virtuelle Maschine aus, welche den gleichen Daten- und Systemstand zum letzten Backup des originalen Systems vorhält. Die Ausfallzeit reduziert sich so eigentlich nur noch auf die Zeit, die für das Umschalten der Systeme benötigt wird.

Dank der Multi-Step-Wiederherstellung, die sogar auf unterschiedlicher Hardware möglich ist, verringert sich dann auch die Ausfallzeit beim Wechsel vom virtuellen Stand-by-System zurück auf zum Beispiel ein neues originales System ebenfalls auf die dazu notwendige Umschaltung.

Was spricht dagegen, Langzeit-Backup und Archivierung gleichermaßen per Backup-Software zu verwalten?

Zinner: Der Unterschied liegt bei den Speichermedien und den Kosten dafür. Je nach Priorität haben beide Systeme ihre Vorteile. Bei einer Archivierung kommt es darauf an, dass die Daten zuverlässig über mehrere Jahre oder Jahrzehnte aufbewahrt werden.

Die Schnelligkeit, um diese Daten wieder zur Verfügung zu stellen, spielt dabei eine geringere Rolle. Bei Backups ist es genau umgekehrt: Die Systeme müssen schnell wieder verfügbar sein und dann sollten so wenig wie möglich Daten verloren gegangen sein.

Deshalb ist es wichtig, mehrmals im Verlauf des Tags Backups zu erstellen und diese auf Backup-Medien zu speichern, welche eine schnelle Wiederherstellung gewährleisten.

Warum wird LTFS die Backup-Welt nicht verändern?

LTFS hat den Vorteil, das Schreiben von Daten auf Backups zu vereinfachen. Es verändert aber nicht die Geschwindigkeit einer Wiederherstellung.

Wieso brauchen wir nun auch noch die objektorientierte Speicherung von Daten? Hat das Auswirkungen auf Backup- und/oder Archivierung-Konzepte?

Zinner: Objektgespeicherte Daten bieten den Vorteil der Unveränderbarkeit und somit einer Historie. Auch die Suche der Daten ist performanter. Die Auswirkungen im Backup-Bereich sind dagegen eher gering und spielen keine große Rolle.

Big Data ist in aller Munde. Zukünftige ERP-Datenbanken werden vielleicht vollständig auf PCIe-Speicherkarten laufen. Welchen Einfluss hat diese neue, mit kurzen Latenzzeiten agierende Speicherarchitektur auf die Backup-Software und Backup-Infrastruktur?

Zinner: Je mehr Daten vorhanden sind, desto schwieriger ist es, diese vollständig in einem bestimmten Backupfenster zu sichern. Letztlich kommt es darauf an, die Daten fortwährend im laufenden Betrieb zu sichern, ohne die Performance der Systeme oder des Netzwerks zu beinträchtigen. Dabei muss es eine Backuptechnologie vor allem ermöglichen, den Umfang der Backup-Dateien so gering wie möglich zu halten.

Wie lässt sich die Qualität von Backups verifizieren?

Zinner: Das Testen von Backups und auch der Disaster-Recovery-Lösungen ist unumgänglich. Zum einen stellt man so sicher, dass Backups funktionieren und Systeme konsistent gesichert werden.

Zum anderen ist man bei einem wirklichen Desaster gelassener, weil der Ablauf der Wiederherstellung bekannt ist und Backup-Images getestet wurden. Eine erfolgreiche Wiederherstellung eines Systems ist immer nur so gut wie das ihr zugrunde liegende Backup.

Kann man verhindern, dass das Backup den Produktivbetrieb eines Unternehmens stört?

Zinner: Bei einer entsprechenden Performance und angemessener Hardware-Ausstattung ist das kein Problem. Ein guter Mix aus gelegentlich durchgeführten Voll-Backups sowie dem Erstellen Sektor-basierter Images und differentieller Backups ermöglicht konsequentes Backup auch im laufenden Betrieb.

Ein cleveres Scheduling, welches Konflikte mit anderen Wartungsarbeiten wie Sicherheits-Scans und Softwareupdates vermeidet, trägt weiter zur Vereinbarung von Produktivität und Datensicherheit bei. Ein fortwährendes automatisiertes Backup mit kontinuierlichen Tests für ein hinreichendes Management der Backup-Qualität ist auch unter Performance-Gesichtspunkten ohne weiteres möglich.

Welche Recovery Time Objectives können Unternehmen beim Recovery aus der Cloud erwarten?

Zinner: Technologien zur prophylaktischen Vorhaltung von virtuellen Images machen Recovery Time Objectives zu einer Sache von Minuten: Mit modernen Lösungen wie ShadowProtect erreichen wir Wiederherstellungszeiten von maximal 15 Minuten.

(ID:39303030)