Always-on mit Continuous Data Protection

Hochverfügbarkeit ist kein Luxus

| Autor / Redakteur: Sven Haubold, Territory Account Director bei Arcserve / Rainer Graefen

Schematische Darstellung einer Hochverfügbarkeits-Infrastruktur zur Informations- und Anwendungssicherheit.
Schematische Darstellung einer Hochverfügbarkeits-Infrastruktur zur Informations- und Anwendungssicherheit. (Bild: ArcServe)

Herkömmliche Backups, aus denen Daten aus einer Sicherung wieder ins System zurückgespielt wurden, erfüllen immer weniger die Ansprüche der digitalisierten Wirtschaft an Datensicherheit und Verfügbarkeit. Danach sollten Daten und Anwendungen jederzeit hochverfügbar sein.

Hochverfügbar in diesem Sinne sind nur Daten, die permanent auf einen Sicherungsserver repliziert werden und sofort betriebsfähig sind. Im Ernstfall erfolgt dann das automatische Failover auf diesen Server – und nach Behebung des Problems im Produktivsystem wieder zurück per Fallback. Und diese Verfügbarkeit können sich immer mehr Unternehmen leisten.

Konventionelle Backup- und Recovery-Lösungen waren 30 Jahre lang die einschlägigen und erfolgreichen Technologien für die Sicherung und Wiederherstellung von Informationen. Aber die Geschäftsprozesse waren damals noch geduldiger, eine Einspielung eines Backups über Nacht ärgerlich, aber zu verkraften. Heute müssen Daten ständig verfügbar sein.

Das Backup von Band oder Festplatte oder auch der Rückgriff auf Snapshots gibt aber niemals ein aktuelles Abbild der Daten. Selbst ein Rückgriff auf eine 15 Minuten alte Sicherung reicht heutzutage nicht mehr aus. Das Always-on-Geschäft toleriert nicht einmal ein Zeitfenster von wenigen Sekunden – an der Börse nicht mal von Millisekunden. Es verlangt nach einer permanenten Hochverfügbarkeit der Anwendungen und Informationen und will das Risiko eines Datenverlustes komplett beseitigen.

Null Toleranz in Sachen Datenverlust

Bisher war eine solche Hochverfügbarkeit nur mit hohem Aufwand und zu einem hohen Preis nur für große Unternehmen zu verwirklichen. Häufig mussten und müssen Datensicherungen aus Ressourcen-Mangel priorisiert werden. Die Entscheidung, welche Daten und Anwendungen wie wichtig sind, erfolgt nach Einschätzung der Business-Entscheider.

Gemeinsam mit der IT legen sie den Recovery Point Objective (RPO) – also den Zeitraum, der zwischen Datensicherungen liegen darf, um den Normalbetrieb nach dem Absturz eines Systems aufrecht zu erhalten – sowie den Recovery Time Objective (RTO) – die Zeit, die vom Eintritt des Schadens bis zur vollständigen Wiederherstellung des Systems höchstens vergehen darf – fest.

Die Festlegung der Werte von RPO und RTO hängen von verschiedenen Faktoren ab - etwa davon, ob Daten im Notfall auch auf eine andere Art und Weise wiederhergestellt werden können oder wie notwendig diese für den Geschäftsbetrieb benötigt werden. So haben monatliche Business-Intelligence-Berichte keine hohe Dringlichkeit und die IT kann sich mehr Zeit mit der Wiederherstellung lassen. Doch sobald BI-Dashboards annähernd in Echtzeit Entscheidungshilfen geben sollen, schließt sich auch hier das Wiederherstellungsfenster fast vollständig.

Das entspricht auch dem allgegenwärtigen Trend. 2018 werden Unternehmen auf eine vollständige Wiederherstellung ihrer als unternehmenskritisch eingeschätzten Informationen und Anwendungen bestehen. Die Verantwortlichen werden also das Recovery Time Objective (RTO) verkürzen.

Entscheidungsträger sind deshalb nach den Ergebnissen einer jüngst vorgestellten Ostermann-Studie davon überzeugt, dass sowohl RTO als auch RPO 2018 signifikant sinken werden - auf Werte, die im Durchschnitt um die Hälfte niedriger liegen als 2017. Fast die Hälfte der Befragten gab in dieser Studie an, dass sie keinerlei Datenverlust ihrer kritischsten Anwendungen tolerieren könne.

Echte Hochverfügbarkeit

Die gestiegenen Ansprüche erfordern die kontinuierliche Übertragung und Replikation von Anwendungen sowie von Datenveränderungen geschäftskritischer Daten an einen zweiten Speicherort. Im Desaster-Fall – sei es durch höhere Gewalt, Stromausfall oder eine misslungene Softwareinstallation – muss der Failover und die Migration der Endnutzer unmittelbar automatisch auf den Replikationsort und auf den aktuellen Datenbestand erfolgen, um den Geschäftsbetrieb aufrecht zu erhalten. Dies gilt ebenso für den Fallback, wenn der leistungsfähigere Produktionsserver wieder zur Verfügung steht.

Hochverfügbarkeitslösungen synchronisieren zuerst die Daten auf Produktionsservern mit einem zweiten Replika Server (physisch oder virtuell), der lokal, an einem beliebigen Remote-Standort oder in der Cloud bereitgestellt wird. Für mehr Sicherheit lassen sich auch weitere Sicherungs-Server einrichten. Danach werden alle laufenden Änderungen auf Byte-Ebene vom Produktionsserver auf den Replika-Server anwendungskonsistent gesichert.

Durch die automatisierte Konfigurations- und Transaktionsintegrität können die gesicherten Informationen im Fall des Failover durch die Anwendungen sofort verwendet werden: Eine wieder hergestellte Exchange-Server-Mail lässt sich zum Beispiel direkt wieder in der Mailbox des Empfängers wieder abrufen und sofort beantworten.

Zudem ermöglichen Hochverfügbarkeitslösungen die Ansteuerung punktgenauer Wiederherstellungspunkte. Wie bei einem Audio-Medium kann die IT auf beliebige Wiederherstellungspunkte zurückspulen – sekundengenau etwa auf den Datenzustand von vor 3:12 Minuten, bevor es zu einem Virenangriff oder zur Korruption der Datenbank kam. Auch die Wiederherstellung virtueller Maschinen oder ein Bare Metal Recovery sind sofort möglich.

Eine solche Lösung muss nicht kompliziert sein. Speicherunabhängige Lösungen sichern Daten, unabhängig welche Art von Sicherungsmedien in der Produktivumgebungen verwendet wird. DAS, NAS oder SAN lassen sich einfach sichern. Bei Netzen mit eingeschränkter Bandbreite und hoher Latenz bieten WAN-Optimierungsfunktionen mit Komprimierung, Bandbreitendrosselung, Multi-Stream-Replikation, periodischer Replikation oder Offline-Synchronisierung Optionen zur Anpassung an die Leistungsfähigkeit des Netzes. Nicht zu vernachlässigen ist auch die permanente Überprüfung der Sicherung auf ihre Funktionsfähigkeit.

Machbar und bezahlbar

Hochverfügbarkeit ist nicht mehr länger ein komplexer Vorgang, der mit Null-Ausfallzeit und Null-Datenverlust schon fast esoterisch anmutende Versprechen macht. Angesichts gesunkener Kosten für Infrastruktur wie Bandbreite und Speichermedien, der Möglichkeit der Servervirtualisierung und preisgünstigerer Angebote von Service-Provider ist sie nun auch eine Alternative für Unternehmen aller Größen und auch für Unternehmen mit nur kleinen Teams. Hochverfügbarkeit ist erschwinglich und möglich.

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45127042 / Continuous Data Protection)