Definition Datensicherung

Was verbirgt sich hinter dem Begriff Backup?

| Autor / Redakteur: Walter Schadhauser / Rainer Graefen

Das LTO-7-Tape: Speichert mindestens 6 TByte Daten mit einer Mindestgeschwindigkeit von 300 MByte/s.
Das LTO-7-Tape: Speichert mindestens 6 TByte Daten mit einer Mindestgeschwindigkeit von 300 MByte/s. (Bild: Fujifilm)

Die Datensicherung respektive das Backup stehen für das Misstrauen an Volksweisheiten: "es wird schon alles gutgehen". Und obwohl vieles tatsächlich lange Zeit "gut gehen" kann, so steht doch in der allergrößten Lebensweisheit aller Zeiten, in Edward A. Murphy´s Law: "Wenn etwas schiefgehen kann, dann wird es auch schiefgehen." Die letztendlich einzige Chance seine Daten nicht zu verlieren, besteht insofern in einer funktionsfähigen Kopie, den Backup-Daten.

Doch diese Anforderung nach einer funktionsfähigen Kopie hat es in sich. Will man nur die Daten sichern, oder auch die Programme oder vielleicht sogar der Einfachheit halber gleich das ganze System nach einem Restore wieder funktionsfähig haben. Jede dieser Varianten zieht einen Haufen an Zusatzproblemen nach sich, die aber an dieser Stelle nicht abgehandelt werden sollen.

Beim Backup stellen sich ziemlich sofort zwei Kernfragen:

  • Welche Daten soll ich denn sichern?
  • Wie oft muss ich meine Daten sichern?

Reagiert der Anwender mit Bequemlichkeit auf die beiden Fragen und entscheidet sich für die tägliche Sicherung aller Daten, muss er nach kurzer Zeit feststellen, dass er durch dieses Vorgehen, sehr viel Speicherplatz mit den immer gleichen Daten belegt, da sich diese über viele Sicherungsläufe nicht geändert haben.

Rechenexempel

Damit wäre man beim eigentlichen Problem des sogenannten Voll-Backups: dem Zeitaufwand, den die Datensicherung benötigt. Nimmt man einmal an, dass die Datensicherung in der Lage ist, 1 MByte pro Sekunde zu sichern, so errechnet sich daraus, dass 3,6 GByte Daten pro Stunde kopiert werden können. Bei einem Datenbestand von 100 GByte würde der Datensicherungslauf über 27 Stunden dauern.

Neben dem Problem, dass sich die Vollsicherungen zeitlich überlappen würden, würde ein Anwender bemerken, dass an seinem Rechner oder wenn die Backup-Daten über das Netzwerk laufen würden, so gut wie kein Arbeiten mehr mit dem Computer oder mit dem Server möglich ist. Beim Backup wird nämlich ein kontinuierlicher Datenstrom erzeugt, damit das Zielmedium, das Bandlaufwerk (Tape) mit bestmöglicher Performance arbeiten kann.

In einem Ethernet-Netzwerk mit 10 MBit Bandbreite wäre diese so gut wie vollständig durch das Backup ausgenutzt. In einem 100 MBit-Ethernet, wären ungefähr 15 Prozent der Bandbreite belegt, da durch Kodierungen nur etwa 80 Prozent der Bandbreite zur Verfügung stehen.

Auch wenn eine Sicherungsgeschwindigkeit von 1 MByte/s so ungefähr vor 30 Jahren Stand der Technik war, so ändert das nichts an dem im Beispiel erkennbaren Problem: Ist die Bandbreite ausgeschöpft, so muss das Netzwerk aufgebohrt werden, dauert die Datensicherung zu lange, dann muss das Bandlaufwerk schneller werden, und wenn diese beiden Problemzonen im Griff sind, dann sind die Backup-Software, der Server, das Dateisystem, der Tape-Controller, die Treiber und anderes mehr zu langsam. Ein Kreislauf ist in Gang gesetzt, in dem beständig der Flaschenhals, also die Engstelle, verschoben werden muss.

Im Laufe vieler Jahre hat sich die Datentransferrate bei den Bandlaufwerken (Festplatten sind keine Alternative!) auf 300 MByte/s erhöht. Mit 3,6 multipliziert ergibt sich ein Datensicherungsvolumen von 1080 GByte pro Stunde oder rund 1 TByte pro Stunde. Wollte man nun eine Datenmenge von 1 Petabyte in 24 Stunden sichern, wären rechnerisch 42 parallel arbeitende Laufwerke notwendig. Man sieht, das führt zu keinem wirklich befriedigenden Ergebnis. Nicht zuletzt ist der Datenschutz dann schon wieder 24 Stunden veraltet.

Standardverfahren

Die Datensicherung in der technischen Form beständiger Voll-Backups verursacht mit wachsendem Datenbestand eine Dauerbaustelle. Diese Form der Datensicherung wird deshalb meist nur in Entwicklungsumgebungen oder bei Datenbanken angewendet. Hier sind die Datenmengen begrenzt und gut kalkulierbar.

Sobald die Datensicherung von zig Millionen unstrukturierter Daten praktiziert werden muss, stellen Anwender schnell fest, dass Datentransferrate und Datenmenge sich nicht mehr in eine kalkulierbare Beziehung bringen lassen. Sehr viele Dateisysteme sind mit dem Browsen solcher Unmengen von Dateien überlastet und sofern ein Bandspeicher angesichts vieler kleiner Datentransporte aus dem Streaming-Modus in den gefürchteten Start-Stop-Modus fällt, ist das Ende einer solcherart aus dem Tritt geratenen Datensicherung nicht mehr absehbar.

Abhängig von der zu kopierenden Datenmenge, muss ab einer bestimmten Datenmenge das Backup-Volumen reduziert werden. Dies gelingt auf verschiedene Weisen:

Grundlage ist das

  • Voll-Backup, das entweder mit
  • einem inkrementellen Backup oder
  • mit einem differentiellen Backup kombiniert werden kann.
  • Bewährt haben sich auch Read-only Snapshots und Continuous Data Protection (CDP)
  • Reicht das alles nicht aus, so hat sich als eine inzwischen auch nicht mehr ganz so neue Technik die Deduplizierung bewährt, die aber angesichts vieler schon vor dem Backup deduplizierter Daten
  • gerne mit Kompressionsverfahren kombiniert wird.
  • Als moderne Verfahren kommen CBT, Change Block Tracking und
  • globale Deduplizierung hinzu.

Beim inkrementellen Backup wird das Datei-Flag Archivierung gesetzt, das erst nach einem erneuten Beschreiben der Datei zurückgesetzt wird, so dass die Datei wieder in den Backup-Zyklus aufgenommen wird. Beim inkrementellen Backup ist die Datenmenge nur ein kleiner Teil des Vollbackups, bei der Rücksicherung, dem Restore muss jedoch nach dem Aufspielen des letzten Voll-Backups jedes danach erzeugte Teil-Backup in der richtigen Reihenfolge wieder zurückkopiert werden. Mancher Hersteller benutzt als Backup-Methode "incremental for ever".

Das differentielle Backup erspart dem Anwender im Katastrophenfall, dem K-Fall, das Kopieren vieler Inkremente, da hier bei jedem Backup jeweils alle geänderten Daten seit dem letzten Voll-Backup gesichert werden.

Ein Grundproblem der Datensicherung auf Tape ist, dass diese eine gewisse Zeit dauert, in der normalerweise schon wieder neue Daten im Unternehmen generiert werden. Für Abhilfe sorgen Snapshots, die in regelmäßigen Abständen oder kurz vor Eingriffen in Systeme gezogen werden können. Der Snapshot ist keine eigentliche Datensicherung, sondern ein Merkzettel welche Dateiblöcke seit dem letzten Snapshot verändert wurden. Entweder werden dabei die alten Daten an einen anderen Ort verschoben und die neuen kommen an die alte Stelle, oder umgekehrt. Snapshots können allerdings als Snapshot Mirror auch alle Dateien als eine Hintergrund-Aktivität auf ein zweites Speichersystem kopieren.

Den anderen Methoden der Datensicherung wie CDP, CBT, Deduplizierung und Kompression ist gemein, dass sie die zu kopierende Datenmenge auf die kleinst mögliche Datenmenge reduzieren, um den Zeitaufwand zu minimieren.

Ransomware

Jahre lange galt die Datensicherung als die Methode, um auch im Ernstfall einer Zerstörung des Rechenzentrums auf eine Kopie aller Daten zurückgreifen zu können. Zur Sicherheit wurden wöchentliche, monatliche, vierteljährliche und eventuell noch ältere Kopien eingelagert.

Inzwischen gilt als Standardempfehlung: Drei Kopien der Unternehmensdaten sollen auf zwei unterschiedlichen Medien erstellt werden, wobei eine Kopie "offsite" untergebracht wird. Wer sich allein auf Festplatten-Subsysteme verlässt, die im Unternehmensnetz als File-Shares angelegt sind, ist angesichts der Bedrohungen durch Erpressungs-Software nicht ausreichend geschützt.

Ob die Offsite-Kopie unbedingt ein Tape oder BluRay-Disk sein müssen, oder ob es doch gleich die Cloud als Speichermedium sein kann, ist derzeit noch nicht abschließend klärbar. Es spricht einiges dafür, andererseits soll die Cloud ja ein Teil des Unternehmens werden.

Alternative Lösungen

Das Backup auf Tape hat neben einigen Vorzügen den Nachteil, dass man die Abstände zwischen Datensicherung nicht beliebig verkürzen kann. Das geht nur mit Snapshots und CDP. Alternativen zu diesen Möglichkeiten wären z.B. Objektspeicher, die Spiegelung von Speichersystemen oder gleich ganzen Rechenzentren. Doch wer absolute Sicherheit haben will, der wird niemals zufrieden zu stellen sein. Murphy´s Law ist bei jeder Sicherheitsmaßnahem ein Systembestandteil.

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44765284 / Restore-Software)