Backup und Restore

Die letzte Zuflucht

19.01.2007 | Autor / Redakteur: Hartmut Wiehr / Rainer Graefen

Während im englischen Sprachraum „Backup“ und „Security“ deutlich gegeneinander abgegrenzt sind, liegen die Dinge in Deutschland nicht so klar: „Datensicherheit“ und „Datensicherung“ gehen von der Bedeutung ineinander über. Datensicherheit steht mehr für alle Technologien und Lösungen, die sich mit dem Schutz von digitalen Daten vor absichtlicher Zerstörung oder Diebstahl befassen (Viren, Phishing usw.). Datensicherung umschreibt alle Prozesse, die die physische Zerstörung und den unabsichtlichen Verlust vermeiden sollen (Hard- und Softwarefehler, Anwenderfehler usw.).

Kein Wunder, dass viele Anwender lieber bei den Originalausdrücken „Security“ und „Backup“ bleiben. Die Sachen selbst sind schließlich schwierig genug, und Administratoren haben alle Hände voll zu tun, die täglichen Aufgaben zweckgemäss abzuwickeln und neue Trends im Auge zu behalten.

Strategisch denken

Fehler bei der Backup-Planung und beim Zurückspielen der Daten im Schadensfall erschweren die Wiederherstellung eines früheren Zustands. Permanent ein Full-Backup durchzuführen ist schon aus Gründen der Aufrechterhaltung des IT-Betriebs und der anfallenden Medienkosten in der Regel ausgeschlossen. Sinnvoller sind abgestufte klassische Prozesse, die auf der Basis einer kompletten Datensicherung in bestimmten zeitlichen Abständen nur noch die Veränderungen an den Daten festhalten.

Während ein differentielles Backup sämtliche Systemdaten und Änderungen der Dateien seit dem letzten Full Backup aufzeichnet, wird bei einem inkrementellen Backup immer das Tape mit dem am weitesten zurückliegenden Datum überschrieben. Eine kontinuierliche Datensicherung findet in beiden Fällen aber noch nicht statt: Dazu müsste fortlaufend und ohne Unterbrechung gesichert werden. Diesem Ideal nähern sich die Konzepte der Continuous Data Protection (CDP) an, wobei jedoch selbst Snapshots im Stundentakt oder im Abstand einiger Minuten noch nicht völlig dem Anspruch von Kontinuität genügen würden.

Den aktuellen Anstrengungen, die gegenwärtig gerade bei Start-ups im Storagebereich zu beobachten sind, geht es darum, die klassischen Backup-Konzepte, die häufig durch zu enge Backup-Fenster in ihrer Wirksamkeit behindert sind, durch neue Ideen zu ergänzen. Neben CDP zählt man zu der Gruppe von Next-Generation Data Protection (NGDP) unter anderem auch Data Reduction und Virtual Tape Libraries (VTL).

Gerade im Bereich von Online-Data-Storage hat sich nicht nur konzeptuell viel getan. Daten, die ständig zur Verfügung stehen sollen und gleichzeitig hochperformant gesichert sein müssen, werden in einem Tier-1-System auf Platten gespiegelt.

Auf dem Weg zu automatisierten Storage-Prozessen

Backup und Restore sind arbeitsaufwändig, vor allem wenn sie nicht ausreichend geplant sind. Administratoren sind gerade in Zeiten des allgemeinen Sparzwangs gehalten, sich mit der optimalen Auslastung der vorhandenen Ressourcen zu befassen. Dabei spielt es für den Prozess der Datenwiederherstellung kaum eine Rolle, ob die eingesetzte Hardware und die Backup-Medien fehlerfrei sind.

Eine solche Beeinträchtigung des Restore-Erfolgs tritt relativ selten auf. Wichtig ist, dass die IT-Abteilung die Voraussetzungen dafür schafft, die Daten entweder komplett oder selektiv wieder zurückzuspielen. Es sollte also rechtzeitig festgelegt – und geübt – werden, welches Szenario im Ernstfall anzuwenden ist. Dies gilt natürlich auch für die Überprüfung der Datenintegrität.

Ausfallzeiten der IT bereiten nicht nur praktische Probleme im Handling und der Rückkehr zum Alltag der Datensicherung – egal, für welches Konzept man sich entschieden hat –, sie gefährden auch ernsthaft den Geschäftserfolg des Unternehmens. Und auf den kommt es schließlich an. Investitionen in High Availability und Storage Management können sich also durchaus lohnen. Mit mehr Automatisierung in den Abläufen der Storage-Infrastruktur werden die Geschäftsprozesse und ihre laufende Optimierung unterstützt.

Indem Daten über die Auslastung, das Einsatzfeld oder die Konfiguration der Speicher-Ressourcen gesammelt und in Software für Storage Management umgesetzt werden, werden die täglichen Backup-Prozesse sinnvoll ergänzt und die Rückspielzeiten im Recovery-Fall verkürzt. Storage Management steigert so die bereits vorhandenen Lösungen für High Availability, die im Unternehmen eingesetzt werden. Sie sollte nicht isoliert gesehen werden und dort, wo es möglich ist, in bestehende Konzepte integriert werden.

Null Toleranz für den Ausfall von Mission Critical Data

Untersuchungen über tolerierbare Zeiten für einen Datenausfall machen nur dann Sinn, wenn sie sich auf bestimmte Datenklassen beziehen. So lassen sich je nach Bedeutung für das Unternehmen und den Geschäftserfolg folgende Datentypen unterscheiden:

  • Mission Critical Data
  • Vital Data
  • Sensitive Data
  • Non-critical Data

Laut Horison Information Strategies machen Mission Critical Data etwa 15 Prozent der Unternehmensdaten aus und müssen noch während ihrer Entstehung permanent gesichert werden – zum Beispiel durch Mirroring oder Hot Standby Sites. Ihre Hochverfügbarkeit muss den „Fünf Neunen“ entsprechen (99,999 %). Vitale Daten mit einem Anteil von 20 Prozent müssen innerhalb von Sekunden gesichert werden, zum Beispiel durch Snapshots oder Point-in-Time Copies mit zusätzlichem I/O-Workload und Sicherung zu einem bestimmten Zeitpunkt, der je nach den Unternehmensbedürfnissen definiert wird (Hochverfügbarkeit von 99,99 %).

Sensitive Data – ihr Anteil an den Unternehmensdaten beträgt 25 Prozent – sollten innerhalb von Minuten durch ein periodisches Backup gesichert werden (99,9 %). Der grösste Teil der in einem Unternehmen erzeugten Daten entfällt nach den Untersuchungen von Horison mit 40 Prozent auf non-critical Data, für die Sicherungszeiträume von Stunden oder Tagen ausreichen. Der Grad an Hochverfügbarkeit liegt hier unter 99,0 %. Lokale Kopien oder manuell angestossenes Backup können ausreichen.

Je nach Branche verschieben sich die Gewichte zwischen den verschiedenen Datenklassen. Konsequenzen ergeben sich auch für das Information Lifecycle Management (ILM) und die Anstrengungen im Bereich von Archivierung. Eines bleibt aber unverändert: Für geschäftskritische Informationen sind keinerlei Ausfallzeiten akzeptabel.

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 2001900 / Grundlagen)