Zeitgemäße Datensicherung und -wiederherstellung

Schönrechnen zahlt sich nicht aus

| Autor / Redakteur: Roland Stritt* / Tina Billo

(Bild: Rubrik)

Traditionelle Backup- und Recovery-Lösungen können mit der sich rasch wandelnden IT-Welt nicht mehr Schritt halten. Moderne Ansätze wie Cloud Data Management sind jetzt gefragt.

Backup- und Recovery-Lösungen müssen heute vielerlei Vorgaben erfüllen. Dazu gehört, dass sie sowohl in physischen als auch virtualisierten Umgebungen arbeiten und sich in konvergenten und hyperkonvergenten Infrastrukturen sowie der Cloud einsetzen lassen. Zudem sollten sie mit den im Big-Data-, IoT- und DevOps-Zeitalter anfallenden großen Datenmengen umgehen können.

Herkömmliche Backup- und Recovery-Lösungen sind diesen Anforderungen oft nicht gewachsen. Das Gebot der Wirtschaftlichkeit führt jedoch dazu, dass IT-Abteilungen in vielen Fällen mit dem was schon da ist zurechtkommen müssen. Ein Grund hierfür ist, dass Neuinvestitionen oftmals ein Vergleich Alt gegen Neu zugrunde gelegt wird. Doch dies ist der falsche Ansatz, denn ebenso wie sich ein älterer PKW unter Aspekten wie Reparaturanfälligkeit, Kraftstoffverbrauch oder KFZ-Steuer ab einem gewissen Punkt nicht mehr rechnet, verhält es sich auch in der IT.

So heißt es, bei Backup-Management-Lösungen neben den reinen Anschaffungskosten ebenso die Aufwendungen für Soft- und Hardware, das WAN, sowie aller für die Datenreplikation an externe Standorten erforderlichen Komponenten zu berücksichtigen. Hinzu kommen Betriebs- und Personalkosten, die bei hohem Verwaltungsaufwand deutlich zu Buche schlagen. Auch spielt das Thema lange Backup-Fenster ein Rolle, die sich als Produktivitätsbremse erweisen können.

Eine Gesamtkalkulation, die alle Faktoren einschließlich zu erwartender Folgekosten bei steigenden Datenmengen miteinbezieht, kann aufzeigen, dass sich der Wechsel auf eine moderne Backup- und Recovery-Lösung wie beispielsweise eine Cloud-Data-Management-Plattform durchaus lohnen kann.

RPO- und RTO-Werte klein halten

Eine fundierte Grundlage zum Aufbau einer praxistauglichen Sicherungs- und Wiederherstellungstrategie liefert die Bestimmung der Recovery Point Objective- (RPO) und Recovery Time Objective- (RTO) Werte. Der Begriff RPO bezieht sich auf den Zeitpunkt der Wiederherstellung von Daten nach einem Ausfall. Tritt ein primärer Systemfehler auf, steht ein niedriger RPO für einen geringeren Datenverlust. Dies lässt sich durch häufige Backups erreichen, die allerdings im Gegenzug mehr Datenbewegungen über das Netzwerk verursachen und eine höhere Zahl an gespeicherten Kopien erzeugen. Bei geschäftsentscheidenden Anwendungen müssen RPOs als Zeitpunkte in Minuten gemessen werden,bei weniger kritischen Applikationen hingegen in Stunden oder Tagen.

RTO bezeichnet hingegen den maximal für die Wiederherstellung von einem Objekt wie einer Datei, einem Server oder einem kompletten Rechenzentraum erlaubten Zeitraum. Eine minimaler Wert steht für weniger Ausfallzeiten bei einem primären Systemausfalls, lässt sich jedoch nur durch schnell zugängliche Medien und teure Netzwerk-Switches erreichen.

Das "Austarieren" von RPO und RTO ist ein Thema. Das andere, dass sich die Umsetzung dieser geschäftlich bedingten Anforderungen bei vielen Datensicherungslösungen aufwändig bis komplex gestaltet. Hier punkten moderne Backup- und Recovery-Lösungen mit intuitiver Bedienung im Google- und Android-Stil.

Automatisierung ist unverzichtbar

Ein weiterer entscheidender Aspekt ist die Automatisierung. Erfolgt das Backup weitgehend von allein und ohne manuelle Eingriffe, lässt sich Zeit sparen. Darüber hinaus müssen IT-Abteilungen einen immer höheren Bestand an Daten verwalten, dies macht automatisierte Prozesse unverzichtbar. Gleichzeitig werden die Backup-Fenster immer kürzer, da das Tagesgeschäft verstärkt von digitalen Ressourcen abhängig ist. Dank Snapshot-basierter Backups müssen produktive Anwendungen während des Sicherungsvorgangs nicht mehr unterbrochen werden.

Die Sicherung von NAS-Geräten sollte zudem ohne herstellerspezifische Plugins oder proprietäre Speicherformate auskommen und in einem nativen Format stattfinden. Dadurch entfällt das Entpacken vor einer Wiederherstellung. Das "Incremental Forever"-Verfahren macht regelmäßige Vollsicherungen verzichtbar und schont Netzwerkbandbreite und Speicherressourcen.

Sicherheit darf nicht zu kurz kommen

An Bedeutung gewinnt ebenso das Thema Sicherheit, nicht zuletzt, da externe Cyberbedrohungen zunehmen und anspruchsvoller werden, siehe Ransomware. Netzwerkintern sind unerkannte Datenlecks gefährlich, ebenso wie der vorsätzliche oder unbeabsichtigte Zugriff auf vertrauliche Daten. Der Austausch von Informationen zwischen Vor-Ort-Infrastruktur und Public Cloud beim sich durchsetzenden Hybrid-Cloud-Modell schafft hier neue Herausforderungen. Die Daten sollen auf einfache Weise verlagert, aber auch bestmöglich geschützt werden. Eine Gefährdung der Daten kann effektiv minimiert werden, indem Daten im Ruhezustand ("at rest") ebenso wie in Bewegung („in flight“) verschlüsselt werden.

Einsetzbar in virtualisierten Umgebungen

Virtualisierung ist die nächste Herausforderung. Herkömmliche Backup-Systeme wurden ursprünglich konzipiert, um physische Hosts zu unterstützen. Eine moderne Datensicherungslösung muss virtuelle Umgebungen unterstützen und große Datenmengen ohne Auswirkungen auf die Produktion bewältigen können. Entscheidend sind hierbei Funktionen wie globale indizierte Suche für einen schnellen Datenzugriff und eine granulare Sofortwiederherstellung (Instant Recovery). Da es sich meistens nicht um vollständig virtualisierte Umgebungen handelt, ist es vorteilhaft, virtualisierte und physische Umgebungen problemlos von einer einheitlichen Schnittstelle aus verwalten zu können.

Cloud Data Management

Ein neuer Ansatz bei Backup-Lösungen ist das für die Orchestrierung geschäftskritischer Daten über private und öffentliche Clouds sowie virtualisierte und physische Umgebungen konzipierte Cloud Data Management. Dabei sind Backup, Instant Recovery, Replikation, Suche, Analytik, Archivierung, Compliance und Copy Data Management in einer skalierbaren Technologie vereint.

Die von Grund auf für die Cloud-Generation entwickelten Technologien ersetzen komplexe herkömmliche Lösungen durch eine automatisierte Policy Engine, die Daten über ihren gesamten Lebenszyklus verwaltet und alle gängigen Datenmanagement-Funktionen bereitstellt. Auf diese Weise steht eine "Software Fabric" zur Verfügung, die unabhängig vom Cloud-Anbieter agiert. Unternehmen sind dadurch nicht an einen bestimmten Betreiber gebunden, sondern können für die jeweiligen Anwendungsfälle die passenden Dienste wählen.

Das Datenmanagement erfolgt dennoch zentral über nur eine Plattform mit hohem Automatisierungsgrad. Daraus resultieren entscheidende Vorteile wie einfache Bedienung, ressourcensparendes Datenmanagement und geringe Auswirkungen auf den Produktivbetrieb bei Backup- und Recovery-Prozessen.

* Roland Stritt ist Director Channels EMEA bei Rubrik.

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44736372 / Allgemein)