SEP Jahrestag Backup und Disaster Recovery Es gäbe viele Daten zu sichern, doch welche sind verzichtbar?
Um Backup, Disaster Recovery und Compliance drehte sich alles auf der Jahrestagung des Storage-Softwareanbieters S.E.P. im bayerischen Tegernsee. Fazit: Unternehmen, die rechtliche Schwierigkeiten vermeiden möchten, dürfen diese Themen auf keinen Fall vernachlässigen.
Anbieter zum Thema

„Noch immer haben die meisten Mittelständler keine rechtskonforme Backup- Strategie“, monierte Rechtsanwalt Jens Bücking, Lehrbeauftragter an der TU Stuttgart. Dabei bedeute die Vernachlässigung der Datensicherungspflicht für Unternehmen ein hohes Risiko.
Dies gilt, so betonte der Jurist, übrigens nicht nur während der berühmten zehn Jahre, während derer Steuerdaten vorgehalten werden müssen, sondern unter Umständen noch weit länger.
Platz sparen will gut durchdacht sein
„Bevor Daten gelöscht werden, muss man sich genau überlegen, ob sie vielleicht in einem Rechtsstreit noch etwas beweisen oder die Behauptung eines Prozessgegners entkräften könnten“, warnt Bücking. Wer Daten vorher lösche, stehe, wenn die Beweislast in einem Rechtsstreit auf sein Unternehmen falle, mit leeren Händen da.
„Dass man im Recht ist, nützt nichts, wenn man es nicht durch geeignete Unterlagen beweisen kann“, betont er. Und das bedeutet unter Umständen, dass wichtige E-Mails, manchmal über mehrere Jahrzehnte hinweg, zugänglich sein müssen.
Doch wie sieht technisch eine sinnvolle Datenschutzstrategie aus? Rechtlich laut Bücking so, dass jeden Tag gesichert werden muss, und mindestens einmal wöchentlich vollständig.
Alles andere wird als fehlende Sorgfalt seitens des Unternehmens interpretiert, und zwar auch dann, wenn dieses einen Dienstleister eingespannt hat, der die Sicherungsaufgaben übernehmen wollte. Dann muss der Auftraggeber überprüfen, ob diese Sicherungen tatsächlich stattgefunden haben.
Wahl des Backup-Mediums frei
„Man sollte auf jeden Fall stichprobenartige Tests jedes Backup-Laufs durchführen“, rät Rainer Seyerlein, technischer Direktor SEP. Zudem muss das gesamte Sicherungs- und Data-Recovery-Konzept schriftlich dokumentiert werden, damit man rechtlich im Fall des Falles aus dem Schneider ist.
Welche Technologien verwendet werden, kommt auf die zu sichernde Umgebung an. Kleine oder mittelständische Unternehmen, die nur wenige Daten halten, vielleicht sogar auf nicht virtualisierten Servern, haben es am einfachsten: Oft reicht hier eine integrierte Festplatten-Appliance, wie sie beispielsweise Saytec mit Sayfuse anbietet.
Größere Unternehmen werden für die Sicherungsaufgaben häufiger Virtual Tape verwenden, wenn im Hintergrund eine überkommene Tape-Landschaft vorhanden ist, obwohl auch hier der Trend eindeutig in Richtung Festplatte und Solid-State-Storage als Sicherungsmedium geht, letzteres vor allem für schnelle Snapshots.
Sicherungssatz mit Snapshots
Wer mehr personelle Ressourcen nutzen kann, wird unter Umständen eher eine frei gewählte Softwarelösung mit RAID-Arrays kombinieren als ein vorintegriertes Paket. Den immer enger werdenden Backup-Fenstern rückt man vor allem mit Snapshots zu Leibe. Die speichern zwar nur Verweise auf die zu sichernden Daten, bilden aber dennoch einen Sicherungssatz, von dem sich gegebenenfalls ein Restore durchführen lässt.
Je nach der Dichte der Snapshots ergeben sich mehr oder weniger kurz nacheinander liegende Recovery Points – bis hin zum Stundentakt. Weil eine solche Snapshot-Lösung einfacher handhabbar und günstiger ist als die wesentlich teurere CDP (Continuous Data Protection), konnte sich letztere auf dem Markt auch nicht wirklich durchsetzen. Mit dem Siegeszug der Virtualisierung ändern sich auch die Backup-Konzepte.
Migration und Cluster beim VM-Backup
Im Mittelpunkt der Sicherungsstrategien stehen nicht mehr bestimmte Applikationen, sondern virtuelle Maschinen mit allen darauf laufenden Anwendungen und zugehörigen Daten. Das Backup muss darauf Rücksicht nehmen, dass VMs gegebenenfalls migriert werden.
Die Beziehungen zwischen einzelnen VMs, zum Beispiel in einem Datenbank-Cluster, der sich über zwei VMs erstreckt, müssen der Backup-Lösung bekannt sein – der Hypervisor kennt sie nämlich nicht, da sie sich ausschließlich auf den oberen Softwareebenen abspielen.
Daher brauchen Backup-Lösungen Schnittstellen zu den betreffenden Applikationen oder andere Mechanismen, über die sie von solchen logischen Verbindungen erfahren. Sonst ist am Ende zwar die virtuelle Maschine gesichert, doch auf die Daten kann niemand mehr zugreifen.
Pioniere wie Veeam haben längst Speziallösungen für das Backup virtueller Maschinen vorgelegt, und inzwischen beziehen viele am Markt erhältliche Backup-Lösungen virtualisierte Umgebungen in ihre Ansätze ein.
Grenzenloses Backup
Noch komplexer wird das Datensicherungsproblem mit der hybriden Cloud, die nach Meinung der meisten Marktforscher zur vorläufig dominierenden IT-Infrastruktur heranreifen wird. Denn hier sind auch die zu sichernden Daten möglicherweise auf interne und externe Standorte verteilt.
Wie sich die Sicherungstechniken und –strategien in solchen Umgebungen auf Dauer entwickeln, muss sich zeigen. Klar ist jedoch, dass Probleme auftreten können, wenn Anwender auf einer entfernten Cloud liegende große Datenmengen im Unternehmen zurück sichern.
Oft genug dürfte die Bandbreite der vorhandenen Verbindungen nämlich schlicht nicht ausreichen, um eine solche Sicherung in vertretbaren Zeiträumen durchzuführen. Hier bleibt nur, entsprechende Zusicherungen vom Cloud-Provider zu verlangen oder von vorn herein immer einen Satz aller in der Cloud befindlichen Daten im Haus zu behalten.
Egal, was der Cloud-Provider zusichert – gehen Daten verloren und können sie nicht jederzeit auf Verlangen beispielsweise der Steuerbehörde vorgewiesen werden, fällt dies immer auf das Anwenderunternehmen zurück.
Und was ist mit den Daten aus dem Internet der Dinge?
Erst im zweiten Schritt kann sich dieses unter Umständen beim Cloud-Dienstleister schadlos halten – was aufgrund der langsam mahlenden Mühlen Justitias viel länger dauert als eine blitzschnell verbreitete Meldung etwa verärgerter Kunden in sozialen Netzen, die zu einer Rufschädigung wegen Datenverlust führt.
Gänzlich neue Backup-Probleme werden sich wohl durch Big-Data-Lösungen im Rahmen von Anwendungen des Internet of Things ergeben, wo unzählige Datenschnipsel aus Sensoren oder sozialen Medien in Echtzeit direkt in die Arbeitsspeicher von Auswertungssystemen gespielt, dort ausgewertet und anschließend wieder hinausgeschoben werden, um neuen Daten Platz zu machen.
Solche Big-Data-Analysen werden etwa dazu dienen, im Smart Grid der Zukunft den Strompreis ad hoc zu verändern oder andere Regelungseingriffe in der „Real Word“ induzieren. Deren Ursache sollte man anhand der gespeicherten Ursprungsdaten nachvollziehen können.
Man darf gespannt sein, welche rechtskonformen Backup-Strategien für solche Umgebungen entwickelt werden und ob sich am Ende wie schon öfter an die neue Technologie auch neue Rechtsprinzipien anschließen.
(ID:43224111)