Online-Umfrage zum CeBIT-Kompendium „Backup & Recovery“ von Storage-Insider.de, Teil 3

Das Prinzip Hoffnung stellt keine Backup-Strategie dar

| Autor / Redakteur: Olaf Dany / Nico Litzel

Spricht eigentlich die Datentransferrate des Internets beim Online-Backup gegen das Backup in der Cloud? Wie würden Sie Einsatzszenarien definieren?

Dany: Die Deduplizierung von Datenbeständen hat enorme Auswirkungen auf die Nutzung vorhandener Bandbreiten, um Backup-Daten zu übertragen. Da lediglich die geänderten Daten über das Netz übertragen werden, kann die Deduplizierung den Bandbreitenbedarf um bis zu 99 Prozent senken. Somit ist es mit der Deduplizierung der Daten möglich, Backups – unter Einbeziehung verteilter und entfernter Standorte – in einem zentralen Rechenzentrum zu konsolidieren. In der Vergangenheit stellte die Übertragungsbandbreite des Netzes in vielen Ländern (insbesondere in Schwellenländern) und für kleinere Unternehmen ein Hinderungsgrund dar.

Für viele Szenarien mit Desktop- / Laptop-Umgebungen reichen die typischen Internet-Übertragungsraten für die vorgesehenen Zwecke vollkommen aus. Einschränkungen treten erst dann auf, wenn anfängliche Sicherungsläufe größere Datenbestände umfassen (z. B. Backup von File- und Mail-Servern). Nachdem das erste Backup jedoch durchgeführt worden ist, sind die Bandbreiteneinschränkungen für nachfolgende inkrementelle Sicherung nicht mehr so relevant.

Service Provider haben überdies Konzepte entwickelt, um das erste Backup schneller abzuwickeln, ohne ihre Bandbreitenrichtlinien zu ändern. Einige Lösungen wie etwa Mozy bieten auch einen Zubringerdienst an. Dabei erfolgt das anfängliche Backup vor Ort auf ein externes System, das anschließend zu dem Anbieter transportiert wird. Dort werden die Daten direkt in die Server des Rechenzentrums eingelesen. Nach der Verarbeitung des ursprünglichen Datenbestandes werden die Änderungen, die während des Prozesses aufgetreten sind, nachgeführt.

Es gibt Situationen, in denen umfangreiche Änderungen an dem gesicherten Datenbestand vorgenommen werden müssen und dies durch Bandbreiteneinschränkungen beeinträchtigt werden kann. In diesen Fällen kann wiederum der Zubringerdienst herangezogen werden, um die Nachführung der Änderungen zu beschleunigen. Die Kunden sollten sich darüber im Klaren sein, dass Bandbreiteneinschränkungen an beiden Enden des Prozesses auftreten können und deshalb die zulässigen und akzeptierten Übertragungsraten auf beiden Seiten kennen.

Glaubt man dem Marketing, dann ist das Disaster Recovery in wenigen Minuten erledigt. Bitte erläutern Sie, welche Vorgaben dafür erfüllt sein müssen und ob diese Aussage auch beim Austausch des Host-Rechners gilt.

Dany: Das Thema Disaster Recovery (DR) kann unter zwei Gesichtspunkten betrachtet werden – nämlich einerseits der Schutz der Daten und Anwendungen gegen katastrophale Ausfälle und andererseits die Wiederherstellung der eigenen Daten und Anwendungen nach einem katastrophalen Ausfall. Jedes dieser beiden Ziele lässt sich in wenigen Minuten nur selten vollständig erreichen.

Die Replikation der Inhalte, die auf dem primären Speicher residieren, wird häufig von Kunden durchgeführt, um für die kritischsten Datenbestände eine DR-Lösung zu implementieren. Dabei kann die Replikation – abhängig von der verfügbaren Bandbreite und der geografischen Entfernung – synchron oder asynchron ablaufen.

Wie ich bereits erläutert habe, ermöglicht die Deduplizierung eine Replikation von Backups, sodass diese Backups auch an einem Ausweichstandort in geraumer Entfernung von dem Hauptrechenzentrum gespeichert werden können. Die anfängliche Replikation sämtlicher Backup-Daten von beziehungsweise zum Rechenzentrum kann einige Tage in Anspruch nehmen, anschließend jedoch kontinuierlich und nach Maßgabe des Backup-Konzeptes des Kunden durchgeführt werden.

Die Wiederherstellung nach einer Störung kann dann mit minimalen Beeinträchtigungen für die Endbenutzer erfolgen, indem einfach von einem Rechenzentrum auf das an einem anderen Standort liegende Ausweichrechenzentrum umgeschaltet wird. Heute stellen Daten und Anwendungen jedoch oft nur den kleineren Teil des Problems dar, weil die Benutzer mangels verfügbarer Stromversorgung und Netze in der Regel daran gehindert werden, auf die Daten zuzugreifen.

Der Trend zur Virtualisierung, auf deren Grundlage virtuelle Maschinen schnell an anderen Standorten hochgefahren werden können, führt eindeutig zu einer enormen Verringerung des Zeitaufwands, der sonst für das Recovery nach einem katastrophalen Ausfall benötigt wird.

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 38146990 / Allgemein)