Online-Umfrage zum CeBIT-Kompendium „Backup & Recovery“ von Storage-Insider.de, Teil 9

Zero Downtime durch virtuelles Stand-by-System

| Autor / Redakteur: Richard Zinner / Rainer Graefen

Richard Zinner, Head of Technical Department StorageCraft
Richard Zinner, Head of Technical Department StorageCraft (Foto: StorageCraft)

Ein Snapshot ist erst dann die Antwort in einer Recovery-Strategie, wenn mit den Pointern reale Datenblöcke kopiert wurden, postulierte Richard Zinner von Storagecraft. im Gespräch mit Storage-Insider.de.

Dateien lassen sich mit Backup-Software File um File auf ein zweites Medium verdoppeln. Mit dem wachsendem Datenbestand eines Unternehmen steht man allerdings irgendwann auf verlorenem Posten, wenn ein Vollbackup gemacht werden soll.

Selbst die performanteste Hardware braucht Zeit um Daten von A nach B zu kopieren. Das hat das Vollbackup von Beginn an in Verruf gebracht und dazu geführt, dass nun Inkremente und Differenzen die Datensicherung dominieren. Elf Antworten von Storagecraft, die das Verhältnis von dem Ganzen zu seinen Teilen beleuchtet.

Warum sind Backup-Konzepte wie GFS (Grandfather-Father-Son) oder Tower of Hanoi heutzutage nicht mehr sinnvoll anzuwenden?

Zinner: Letzten Endes sind diese Modelle gerade unter dem Blickpunkt eines modernen und effektiven Backup-Managements einfach zu unhandlich geworden. Bei diesen Konzepten ist es unerlässlich, die Medien zuverlässig nach einem vorgegebenen Plan zu wechseln. Ansonsten funktioniert das ganze Konzept nicht mehr und die Konsistenz des Backups ist nicht mehr gewährleistet.

Unter Umständen gehen dann im Disaster-Fall viele Daten verloren. Auch das regelmäßige Überprüfen ist sehr zeitaufwändig, da dafür immer alle Medien gelesen werden müssen. Jedoch ist die Überprüfung der Backups eine zentrale Bedingung für eine wirklich zuverlässige Sicherung.

Kontinuierliche Snapshots oder differenzielle Images scheinen das Backup-Konzept für moderne IT-Umgebungen zu sein. Stimmt das oder zeichnen sich Alternativen ab?

Zinner: Kontinuierliche Snapshots im laufenden Betrieb gewährleisten vor allem bei Fehlern kürzere Intervalle für das Zurücksetzen des Systems. Wichtig dabei ist, dass alle einzelnen Snapshots gesichert werden.

Nur so lässt sich der Vorteil kürzerer Snapshot-Intervalle auch ausspielen, wenn das System zum Beispiel durch einen Festplattenfehler ganz ausfällt. Bei den heutigen Datenmengen kann ein solches Backup realistisch gesehen nur noch differentiell oder noch besser inkrementell geschehen.

Gerade auf Sektor-Ebene – also nicht auf File-Ebene - erreicht man hier enorme positive Effekte, was die Datenlast und Systemauslastung angeht. Voll-Backups würden das System im laufenden Betrieb zu sehr belasten und erlauben auch weit weniger Snapshots.

Spricht eigentlich die Datentransferrate des Internets beim Online-Backup gegen das Backup in der Cloud? Wie würden Sie Einsatzszenarien definieren

Zinner: Die Transferrate ist in der Regel kein Problem, gerade wenn inkrementelle und auf Sektorebene erstellte Backups in die Cloud zu übertragen sind. Notwendig sind lediglich die Internet-Anbindung an sich und die Entscheidung, eine Cloud für die Datensicherung zu benutzen.

Als Alternativ-Szenario empfiehlt es sich, die Sicherung zuerst lokal zu speichern und auch lokal zu prüfen. So kann man sicher sein, das die Backups zuverlässig erstellt wurden. Danach erfolgt die Sicherung zum Beispiel über einen Cloud Service offsite in der Wolke. Lokal gespeicherte Backups erlauben dann als zusätzliche Rückversicherung ein schnelles Wiederherstellen zum Beispiel bei einem Serverausfall.

Glaubt man dem Marketing, dann ist das Disaster Recovery in wenigen Minuten erledigt. Bitte erläutern Sie, 1. welche Vorgaben (virtuelle Maschine) dafür erfüllt sein müssen und 2. ob diese Aussage auch beim Austausch des Host-Rechners gilt.

Zinner: Generell bieten Image Backups bereits den Vorteil, ein Disaster schneller als dateibasierte Backups zu beheben. Um die Ausfallzeit nun auf wenige Minuten zu reduzieren, bedienen sich unsere Lösungen dazu virtueller Stand-by-Systeme.

Das heißt, man weicht bei einem Systemausfall auf eine virtuelle Maschine aus, welche den gleichen Daten- und Systemstand zum letzten Backup des originalen Systems vorhält. Die Ausfallzeit reduziert sich so eigentlich nur noch auf die Zeit, die für das Umschalten der Systeme benötigt wird.

Dank der Multi-Step-Wiederherstellung, die sogar auf unterschiedlicher Hardware möglich ist, verringert sich dann auch die Ausfallzeit beim Wechsel vom virtuellen Stand-by-System zurück auf zum Beispiel ein neues originales System ebenfalls auf die dazu notwendige Umschaltung.

Inhalt des Artikels:

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 39303030 / Continuous Data Protection)