Online-Umfrage zum CeBIT-Kompendium „Backup & Recovery“ von Storage-Insider.de, Teil 6 Backup-Konzepte ändern sich durch Virtualisierung und virtuelle Maschinen

Autor / Redakteur: Erwin Breneis / Rainer Graefen

In Kürze erscheint das Kompendium „Klassisches Backup, Cloud Storage und Disaster Recovery“ von Storage-Insider.de. Die Redaktion hat im Vorfeld Backup-Spezialisten nach ihrer Einschätzung zu aktuellen Trends gefragt. Hier sind die Antworten von Erwin Breneis von VMware.

Firmen zum Thema

Erwin Breneis, Team Lead Channel Systems Engineers bei VMware
Erwin Breneis, Team Lead Channel Systems Engineers bei VMware
(VMware)

Unser nächstes Storage-Kompendium, das auf der Cebit 2013 erstveröffentlicht wird, beschäftigt sich unter anderem mit den Themen "Objektorientierte Speicherung" und "Betriebsprüfer fordern bessere Datenablage von Unternehmen". Ein Print-Exemplar bekommen sie in Halle 2 auf unserem Partnerstand A40 bei Arrow ECS.

Kontinuierliche Snapshots oder differenzielle Images scheinen das Backup-Konzept für moderne IT-Umgebungen zu sein. Stimmt das oder zeichnen sich Alternativen ab?

Diese Konzepte werden primär von Storage-Herstellern getragen, da diese Art der Sicherung äußerst effizient geschieht, also Speicherplatz optimiert. Doch auch die Traditionellen Anbieter von Backup Software verschließen sich nicht gegen diese Entwicklung.

Zudem wird als erweiterte Funktion meist auch eine Replikation der Daten auf Storage-Ebene angeboten. Dadurch wird die Verfügbarkeit der Daten auch noch Array-unabhängig gestaltet. Daher stimme ich dieser Aussage zu und sehe diese Mischung aus Snapshot und differenziellem Images als Backup als moderne Methode an.

Spricht eigentlich die Datentransferrate des Internets beim Online-Backup gegen das Backup in der Cloud? Wie würden Sie Einsatzszenarien definieren?

Bandbreite ist ein wichtiger Baustein bei Online-Backup-Szenarien. Moderne Backup-Produkte verfügen aber über intelligente WAN-Optimierungen und Deduplikations-Funktionalität, um die vorhandene Bandbreite optimal nutzen zu können. Somit spricht Bandbreite nicht prinzipiell gegen ein Online Backup-Konzept, muss aber bei der Konzeptionierung berücksichtigt werden.

Zudem sind die Datenmengen, die es zu sichern gibt, als Faktor zu betrachten. Da nur bei einem initialen Full-Backup eine erheblich große Datenmenge anfällt und danach inkrementell gesichert wird, also nur noch das übertragen wird, was sich geändert hat, sollte man prüfen, wie man diese erste Menge sinnvoll in den Sicherungsspeicher transferiert und bei einem Recovery ebenso wieder zurück zur Destination.

Glaubt man dem Marketing, dann ist das Disaster Recovery in wenigen Minuten erledigt. Bitte erläutern Sie, 1. welche Vorgaben (virtuelle Maschine) dafür erfüllt sein müssen und 2. ob diese Aussage auch beim Austausch des Host-Rechners gilt

Backup und Disaster Recovery sind zwei unterschiedliche Arten, die Verfügbarkeit von Daten und Diensten zu optimieren. Bezieht sich die Frage auf ein Disaster Recovery–Konzept, dann gilt zu

1: Die VM muss keine speziellen Vorgaben erfüllen. Sie besteht aus einer Anzahl von Dateien, somit benötigt man „nur“ eine Replikationstechnologie, um die Daten von einem Standort zum anderen zu transportieren. Dies kann Host- oder Storage-basierend sein. Das heißt die Daten müssen schon am Recovery-Standort sein, um ein schnelles Recovery des Dienstes (Applikation) zu ermöglichen.

Und zu 2.: Diese Art eines Disaster-Recovery-Konzepts mit VMs ist vollkommen hostunabhängig, das heißt, die Hostsysteme und auch die Storagearrays können in den Standorten (Source und Destination) unterschiedlich sein. Auch die Netzwerkkonfiguration kann sich unterscheiden. Eine Anpassung muss dann jedoch in den Recoveryplan einbaut werden.

Durch Virtualisierung ändern sich Backup-Konzepte

Was spricht dagegen, Langzeit-Backup und Archivierung gleichermaßen per Backup-Software zu verwalten?

Einzig die Architektur bzw. die Funktionalität der Backupsoftware spricht dagegen. Zudem werden heute meist Snapshot-Verfahren als Grundsicherung verwendet. Diese sehen im ersten Schritt keine Bandsicherungen vor; hier muss noch das Zusammensetzen der Snapshots als Zwischenschritt erfolgen, um ein funktionsfähiges Image zu haben.

Wie unterscheidet sich das Backup von virtuellen Welten zu dem einer „herkömmlichen“ IT-Infrastruktur?

Der Unterschied zwischen traditionellen und neuen Backup-Konzepten ist primär eine Frage der vorhandenen Zeitfenster für Backup-Jobs, bzw. die Frage: Wann kann eine Service-Verfügbarkeit unterbrochen werden, um den Backupjob auf „herkömmliche“ Weise durchzuführen?

Hier liegt der Hauptgrund für die Überlegung: Wie kann die IT diesen Anforderungen gerecht werden? In einer virtuellen Infrastruktur wird durch Snapshot-Mechanismen die Möglichkeit geschaffen, die Zeitfenster für Backup-Jobs zu vergrößern, da die Unterbrechungen der Services zur Erstellung eines Snapshot sehr kurz sind.

Somit bekommt ein Backup, egal ob Full oder Inkrementell, mehr Zeit, durchgeführt zu werden. Da sich nun die Konzepte GFS oder Tower of Hanoi auf die Art und Weise der Bandsicherungen - um optimale Datensicherheit abzubilden - beziehen, sehe ich diese Konzepte nicht prinzipiell als veraltet an.

Doch gestalten sich die Backup-Konzepte heute meist als Back to Disk und als Archivierung dann auf Band. Diese Konzepte erlauben eine hohe Dichte an Backups in Verbindung mit der langfristigen Sicherung der Daten durch Bandsicherung. Zudem werden heute komplette Virtuelle Maschinen gesichert.

Was müssen Unternehmen bei Backup und Disaster Recovery beachten, wenn Sie eine virtuelle/hybride IT-Infrastruktur besitzen?

Das verwendete Konzept muss auch die flexible und effiziente Nutzung der Infrastruktur unterstützen, das heißt das schnelle Provisionieren von VMs sowie eventuell sogar deren Deprovisionierung und eine große Dichte an VMs per Host. Somit sollte eine Art Autodiscovery unterstützt werden.

Die große Dichte per Host bedeutet eine garantierte optimierte Nutzung der vorhandenen Ressourcen, sowohl Bandbreite als auch CPU und Netzwerk. Dies gilt ebenfalls für hybride Lösungen. Hier sind spezielle WAN-Optimierungen und Deduplikationsverfahren hilfreich, um die Nutzung der Bandbreite optimal zu gestalten und die zu übertragende Datenmenge auf ein notwendiges Minimum zu optimieren.

Welche neuen Herausforderungen werden durch den zunehmenden Einsatz von Cloud-Diensten an die klassischen Konzepte „Backup“ und „Disaster Recovery“ gestellt?

Die Herausforderungen hängen von der Art des Cloud-Dienstes ab: Ist der Dienst als Business kritisch zu betrachten oder nicht? Wo werden die Daten gespeichert? Wie sieht ein Recoverykonzept beim Anbieter aus? Viele Fragen, die sich meist in der Definition der SLAs abbilden lassen und beim Kunden in einer Risikoanalyse wiedergespiegelt werden sollten, müssen hierzu geklärt werden.

(ID:38312350)