Suchen

Disaster Recovery in der Cloud Sekundenwirksam gegen „Superspreader“

Autor / Redakteur: Axel Dunkel* / Dr. Jürgen Ehneß

Datenverlust durch Katastrophen oder Angriffe ist ein wachsendes Problem für Unternehmen. Kontinuierliche statt punktueller Datensynchronisierung in der Cloud sichert konsistent Datenbestände und beugt einem „Infektionsgeschehen“ vor.

Firmen zum Thema

Eine wichtige Erkenntnis und Grundvoraussetzung für DR-Strategien: In Deutschland wüten deutlich mehr Hacker als Erdbeben (oder andere Naturkatastrophen).
Eine wichtige Erkenntnis und Grundvoraussetzung für DR-Strategien: In Deutschland wüten deutlich mehr Hacker als Erdbeben (oder andere Naturkatastrophen).
(Bild: gemeinfrei / Pixabay )

Disaster Recovery schützt vor Datenverlust im Katastrophenfall und vor unerwünschtem Fremdzugriff. Das Katastrophen-Ranking fällt dabei eindeutig aus: In Deutschland wüten deutlich mehr Hacker als Erdbeben. Erfolgreiche Cyber-Angriffe verursachen immer gravierendere Schäden für Datensammelnde und -liefernde. Die Disaster-Recovery-Lösung von Dunkel etwa erlaubt es, die Daten kontinuierlich statt punktuell zu synchronisieren. Dieser Schachzug erlaubt nahezu sekundengenaue Datenrestauration und sichert konsistente Datenbestände.

Wichtige Kriterien: RTO und RPO

Führt ein Unternehmen eine Disaster-Recovery-Lösung ein, macht es sich über zwei Parameter objektiv und detailliert Gedanken: über die RTO (Recovery Time Objective) und den RPO (Recovery Point Objective). Die RTO gibt die Zeit an, die bis zur Wiederherstellung der verlorengegangenen oder beschädigten Daten höchstens verstreichen darf. Wie lange kann unsere IT stillstehen? Was können wir tolerieren?

Das Wiederherstellungszeitziel kann bei statisch geprägten Systemen ohne sensible Daten durchaus einen Tag umfassen. Handelt eine Manufaktur mit handgefertigten Lederwaren, greift die IT-Fachkraft in aller Ruhe aufs Backup zurück, ohne dass die Zahlen einen Hauch sinken. Gehen bei einem Kurzschluss entsprechende Dateien verloren, pickt man sie im Backup auf.

Der zweite relevante Wert: der Recovery Point Objective. Er fragt nach dem gerade noch hinnehmbaren Datenverlust zwischen Sicherung und Systemausfall. Bei hoher Datenbrisanz und Veränderungsrate wirkt jeglicher RPO größer als null bedrohlich.

Voller Bewegung zum Beispiel ist die Supply Chain. Eine Pharmafirma liefert zahlreiche Chargen unterschiedlicher Medikamente an verschiedene Kliniken. Kommt es hier zu einer Störung, sprengt schon ein winziger Datenverlust die Nachvollziehbarkeit der Lieferkette und fügt dem Unternehmen beträchtlichen Schaden zu: Hat die Anästhesie-Abteilung in Klinik X tatsächlich von uns das schadhafte Medikament Y erhalten? Haben wir wirklich unpünktlich geliefert? Händische Datenwiederherstellung kostet in einem solchen Katastrophenfall zu viel Zeit. Der gute Ruf gerät ebenso schnell in Gefahr wie das Leben der Patienten.

Gleich und gleich befällt sich gern

Die Grundregel beim Disaster Recovery lautet: Dopple deine Daten. In Version eins wandern Daten in exakter Kopie in ein ruhendes Backup-Rechenzentrum und schlummern dort. Fällt das primäre Rechenzentrum einem Stromausfall zum Opfer, schalten Nutzer aufs Backup-Rechenzentrum um. Das klappt, wenn die virtuelle Infrastruktur im Ausweichrechenzentrum auf dem letzten Stand vor dem Stromausfall war. Die größten Katastrophen sind aber nicht Beben, Flut und Feuersturm. Die größte Katastrophe ist der Mensch. Digitale Desaster, die Menschen anstoßen, sickern meist peu à peu ins System. Befällt ein Virus das primäre Rechenzentrum, sorgt die Spiegelung dafür, dass sich das Ausweichrechenzentrum ebenfalls ansteckt. Ein unaufhaltsames Infektionsgeschehen nimmt seinen Gang.

Peu à peu statt Paukenschlag

Um 9 Uhr 18 handelt sich ein IT-Administrator einen Trojaner ein. Der breitet sich aus und verschlüsselt Daten. Um 9 Uhr 30 bemerkt der Admin eine auffällig träge Rechenleistung. Und nicht nur das: Auf nichts kann er mehr zugreifen. Auch im Backup-Rechenzentrum genoss der Trojaner 12 Minuten Zeit für seine unerlaubte Dekodierung. Kein Zugriff auf nichts – fatal.

Das kann zum Reißen der Supply Chain führen, zu Erpressbarkeit bis hin zum Verlust der Geschäftsbasis. Ein winziger Datenschwund im System einer Lebensmittelfirma beispielsweise zerstört die Nachvollziehbarkeit der Lieferkette und fügt dem Unternehmen bei Rückrufaktionen beträchtlichen Schaden zu. Am Telefon, live und über Booking-Portale gebuchte Saison- oder Kombi-Angebote, Zimmer verschiedener Kategorien oder Menü-Abfolgen tragen Mitarbeiter einer Hotelkette in die Datenbank ein. Crasht das System, winkt Chaos. Von personenbezogenen Daten medizinisch tätiger Unternehmen ganz zu schweigen.

Disaster Recovery als Katastrophenservice in der Cloud

Um eine gegenseitige Ansteckung zu vermeiden, befürworten wir Disaster Recovery aus der Cloud – mit einem zweiten Rechenzentrum, das den Content der virtuellen Maschinen nicht hin und wieder sichert, sondern jeweils kontinuierlich speichert. Der Ablauf ist dabei wie folgt: Wir errichten virtuelle Spiegelsysteme von annähernd beliebigen virtuellen Maschinen in ein virtuelles Datacenter des Kunden – die virtuellen Maschinen landen über die Leitungswege direkt in der Cloud. Weil dies unterhalb der Betriebssystemebene passiert, entfällt für IT-Mitarbeiter die Installation von Agenten oder Änderungen von Konfigurationen. Nutzer greifen über ein intuitiv bedienbares Web-Interface auf das Management zu und bestimmen selbst, welche virtuellen Maschinen gedoppelt werden sollen. Aus welcher Umgebung die Daten stammen, interessiert Dunkel Datacenter Replication & Recovery Service nicht.

Feingranulare Replikation

Nach unserem Kenntnisstand ist die Lösung die einzige, die eine kontinuierliche Spiegelung bereitstellt, bei der man auf fast beliebige frühere Zeitpunkte „zurückspringen“ kann. Diese kontinuierliche Synchronisierung ermöglicht sekundengenaue Instandsetzung der Daten. Sie versetzt die schadhafte virtuelle Maschinerie in einen ganz kurz zuvor gespeicherten Systemzustand zurück – ohne dass das betroffene System aus dem Backup rekonstruiert werden muss. Es wird lediglich mit einem früheren, noch intakten Stand in der Cloud aktiviert und arbeitet dann weiter. Selektiv widmet sich die Software nur den virtuellen Maschinen, die eine Störung zu beklagen haben.

FiBu stottert? Sekundengranular wird die Maschinerie in einen intakten Systemzustand zurückgesetzt, während andere Systeme flüssig weiterlaufen. Dies verbraucht kaum Rechnerkapazität und schützt Daten. Die Abrechnung läuft ebenso feingranular pro virtueller Maschine und akutem Cloud-Ressourcenbedarf. Cloud-typisch bezahlt man genau das, was man verbraucht.

Der minimale RPO sichert im Notfall konsistente Datenbestände: Für einen Anwender, der 25 Terabyte delikater Daten besitzt, bewahren 15 replizierte Maschinen den Digitalschatz auf und halten ihn in 15 replizierten virtuellen Maschinen synchron. Der RPO beträgt rund 5 Sekunden.

Das Drama spielen: Failover-Tests

Test-Failovers checken Datensicherheit und Wiederherstellung von Anwendungen innerhalb einer maximal tolerierbaren Ausfallzeit. Spielen Anwender testweise ein Failover durch, überzeugen sie sich live von der Zuverlässigkeit der Lösung und üben notwendige Handgriffe ein. Das Wiederherstellen der replizierten virtuellen Maschinen in einer Sandbox, einer isolierten Umgebung, verhindert eine Beeinträchtigung der Produktivsysteme im Rechenzentrum während des Tests.

*Der Autor: Axel Dunkel ist Gründer und Geschäftsführer der Dunkel GmbH, eines Anbieters hochverfügbarer Cloud-Infrastrukturen und flexibler Sicherheitslösungen zum Schutz von IT-Netzen, E-Mails, Teamkollaboration sowie organisationsinternen und -übergreifenden Kommunikationsprozessen. Mehr unter www.dunkel.de.

(ID:46928668)