Suchen

Online-Umfrage zum CeBIT-Kompendium „Backup & Recovery“ von Storage-Insider.de, Teil 9

Zero Downtime durch virtuelles Stand-by-System

Seite: 2/2

Firmen zum Thema

Was spricht dagegen, Langzeit-Backup und Archivierung gleichermaßen per Backup-Software zu verwalten?

Zinner: Der Unterschied liegt bei den Speichermedien und den Kosten dafür. Je nach Priorität haben beide Systeme ihre Vorteile. Bei einer Archivierung kommt es darauf an, dass die Daten zuverlässig über mehrere Jahre oder Jahrzehnte aufbewahrt werden.

Die Schnelligkeit, um diese Daten wieder zur Verfügung zu stellen, spielt dabei eine geringere Rolle. Bei Backups ist es genau umgekehrt: Die Systeme müssen schnell wieder verfügbar sein und dann sollten so wenig wie möglich Daten verloren gegangen sein.

Deshalb ist es wichtig, mehrmals im Verlauf des Tags Backups zu erstellen und diese auf Backup-Medien zu speichern, welche eine schnelle Wiederherstellung gewährleisten.

Warum wird LTFS die Backup-Welt nicht verändern?

LTFS hat den Vorteil, das Schreiben von Daten auf Backups zu vereinfachen. Es verändert aber nicht die Geschwindigkeit einer Wiederherstellung.

Wieso brauchen wir nun auch noch die objektorientierte Speicherung von Daten? Hat das Auswirkungen auf Backup- und/oder Archivierung-Konzepte?

Zinner: Objektgespeicherte Daten bieten den Vorteil der Unveränderbarkeit und somit einer Historie. Auch die Suche der Daten ist performanter. Die Auswirkungen im Backup-Bereich sind dagegen eher gering und spielen keine große Rolle.

Big Data ist in aller Munde. Zukünftige ERP-Datenbanken werden vielleicht vollständig auf PCIe-Speicherkarten laufen. Welchen Einfluss hat diese neue, mit kurzen Latenzzeiten agierende Speicherarchitektur auf die Backup-Software und Backup-Infrastruktur?

Zinner: Je mehr Daten vorhanden sind, desto schwieriger ist es, diese vollständig in einem bestimmten Backupfenster zu sichern. Letztlich kommt es darauf an, die Daten fortwährend im laufenden Betrieb zu sichern, ohne die Performance der Systeme oder des Netzwerks zu beinträchtigen. Dabei muss es eine Backuptechnologie vor allem ermöglichen, den Umfang der Backup-Dateien so gering wie möglich zu halten.

Wie lässt sich die Qualität von Backups verifizieren?

Zinner: Das Testen von Backups und auch der Disaster-Recovery-Lösungen ist unumgänglich. Zum einen stellt man so sicher, dass Backups funktionieren und Systeme konsistent gesichert werden.

Zum anderen ist man bei einem wirklichen Desaster gelassener, weil der Ablauf der Wiederherstellung bekannt ist und Backup-Images getestet wurden. Eine erfolgreiche Wiederherstellung eines Systems ist immer nur so gut wie das ihr zugrunde liegende Backup.

Kann man verhindern, dass das Backup den Produktivbetrieb eines Unternehmens stört?

Zinner: Bei einer entsprechenden Performance und angemessener Hardware-Ausstattung ist das kein Problem. Ein guter Mix aus gelegentlich durchgeführten Voll-Backups sowie dem Erstellen Sektor-basierter Images und differentieller Backups ermöglicht konsequentes Backup auch im laufenden Betrieb.

Ein cleveres Scheduling, welches Konflikte mit anderen Wartungsarbeiten wie Sicherheits-Scans und Softwareupdates vermeidet, trägt weiter zur Vereinbarung von Produktivität und Datensicherheit bei. Ein fortwährendes automatisiertes Backup mit kontinuierlichen Tests für ein hinreichendes Management der Backup-Qualität ist auch unter Performance-Gesichtspunkten ohne weiteres möglich.

Welche Recovery Time Objectives können Unternehmen beim Recovery aus der Cloud erwarten?

Zinner: Technologien zur prophylaktischen Vorhaltung von virtuellen Images machen Recovery Time Objectives zu einer Sache von Minuten: Mit modernen Lösungen wie ShadowProtect erreichen wir Wiederherstellungszeiten von maximal 15 Minuten.

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de (ID: 39303030)