„Always On“: Disaster Recovery war gestern

Fünf Tipps für Recovery-Prozesse in Echtzeit

| Autor / Redakteur: Eran Brown* / Dr. Jürgen Ehneß

Veränderte Kundenerwartungen: Lange Wartezeiten bei der Datenwiederherstellung sind nicht mehr akzeptabel.
Veränderte Kundenerwartungen: Lange Wartezeiten bei der Datenwiederherstellung sind nicht mehr akzeptabel. (Bild: ©momius - stock.adobe.com)

Da Kunden heute keine langen Recovery-Zeiten mehr tolerieren, in ein Umdenken bei der IT-Infrastruktur nötig. Eran Brown von Infinidat fasst zusammen, wie eine entsprechende „Always On“-Infrastruktur aufgebaut werden kann.

Unsere Gegenwart ist schnelllebig – das zeigt sich besonders in unserem Internet-Nutzungsverhalten. Die Ergebnisse einer aktuellen Google-Umfrage zeigen es deutlich: Lädt eine Webseite länger als drei Sekunden, verliert bereits mehr als die Hälfte der Nutzer die Geduld und schließt selbige. Online-Anbieter verlieren in jeder Sekunde, in der ihre Website nicht erreichbar ist, Unmengen an Geld. Denn die potenziellen Kunden wandern direkt zur Konkurrenz ab.

Enormer Druck

Dieser enorme Geschwindigkeitsdruck ist einer der Haupttreiber für ein radikales Umdenken im Hinblick auf die IT-Infrastruktur: Klassisches Disaster Recovery (DR) ist out, denn alle Geschäftsprozesse, die länger als eine Stunde für ihre Wiederherstellung brauchen, sind im heutigen, schnelllebigen Online-Zeitalter schlichtweg inakzeptabel. In jedem Unternehmen, das seine Kunden behalten und an sich binden möchte, muss daher eine moderne Infrastruktur mit hoher Verfügbarkeit und größter Performance wirklich die höchste Priorität besitzen. Ohne moderne Infrastruktur sind zukunftsorientierte Geschäftsmodelle nicht mehr denkbar.

Die traditionelle Disaster Recovery benötigt viel zu viel Zeit, um wichtige Services im Ernstfall wieder zum Laufen zu bringen. Daher hat ein grundsätzliches Umdenken darüber stattgefunden, wie sich Daten geografisch speichern und verteilen lassen. Eine für heutige Unternehmen ideale Dateninfrastruktur muss Recovery-Prozesse in Echtzeit durchführen können – ohne die Infrastruktur mit zusätzlichen Ebenen (Layern) zu belasten.

„Non-stop“-Daten als Schlüssel zum Geschäftserfolg

Es überrascht daher wenig, dass in einer kürzlich durchgeführten CEO-Umfrage von Gartner das „Digital Business“ als eine der am häufigsten genannten Prioritäten im Business-Umfeld für 2019 auftaucht. Eine Mehrheit von 62 Prozent der Befragten hat bereits sogar ein Managementkonzept oder Realisierungsprogramm für die digitale Transformation in der Umsetzung. Laut einer Gartner-Pressemitteilung vom 3. Dezember 2018 definiert sich eine IT-Infrastruktur der Zukunft vor allem dadurch, dass sie jederzeit und überall verfügbar sein muss („always on, always available, everywhere“).

Unternehmen werden sich in den kommenden Jahren sicherlich weiterentwickeln und vor allem durch die direkte Interaktion mit ihren Kunden über digitale Kanäle noch deutlich agiler werden. Ihre Abhängigkeit von einer zuverlässigen Datenverfügbarkeit in Echtzeit wird weiter steigen, und auch die Bedeutung von Technologien, mit denen im Wettbewerb vorne mitgespielt werden kann, wird weiter zunehmen. In einer „Rund-um-die-Uhr-Gesellschaft“, die keinerlei Geduld mehr hat und in der Unternehmen immer stärker auf Erkenntnisse aus der Datenanalyse angewiesen sind, wird sich „Always On“ zum entscheidenden Erfolgsfaktor entwickeln.

Die Schattenseite der digitalen Transformation

Inzwischen ist der Geschäftserfolg nahezu unmittelbar von der IT-Performance abhängig. Diese Abhängigkeit geht sogar so weit, dass IT-Infrastrukturarchitekten den Ausfall auf Standortbasis bereits in ihre Planung miteinbeziehen und „Always On“-Dateninfrastrukturen aufbauen. Damit ermöglichen sie Unternehmen, wirklich „non-stop“ zu arbeiten. Der Übergang von traditionellem Disaster-Recovery hin zu einem „Always On“-Ansatz birgt jedoch viele Herausforderungen.

Herkömmliche Lösungen, die dedizierte „Always On“-Lösungen einsetzen (zum Beispiel High-Availability-Gateways), erschweren die Administration und treiben die Gesamtbetriebskosten (TCO) in die Höhe. Unternehmen auf der Suche nach einer optimalen Lösung sollten bedenken, dass der Schutz zusätzlicher Anwendungen nicht zwangsläufig jedes Mal neue Kosten generieren muss. Vielmehr sollten sich Unternehmen hier Gedanken machen, wie sich ihr Datenmanagement so vereinfachen und konfigurieren lässt, dass sich die Latenzzeiten verkürzen.

Am Anfang jeder „Always On“-Strategie sollten Unternehmen daher auch den Einfluss auf ihre TCO-Entwicklung mitbedenken. Ansonsten besteht die Gefahr, dass „Always On“ zu einem extrem kostspieligen und nicht besonders nachhaltigen „Vergnügen“ wird. Auch wenn sich ein kontinuierlicher Echtzeitdatenzugriff positiv auf den Ruf eines Unternehmens auswirkt – letztlich wächst der Erfolg eines Unternehmens vor allem dadurch, dass es schnell auf den Markt reagieren kann sowie neue Produkte und Dienstleistungen einführt.

Loyalität und Erfolg

Bleibt Loyalität als Erfolgsfaktor bestehen? Sicherlich – jedoch ändert sich das Verbraucherverhalten. Nach einer Studie von Profit Well ist zum Beispiel die Neukundengewinnung in den vergangenen fünf Jahren um fast 50 Prozent gestiegen. Für Unternehmen lohnt es sich somit aus wirtschaftlicher und strategischer Sicht, stärker an ihrer Bindung zu bestehenden Kunden zu arbeiten.

Die Erwartungen der Kunden sind heute höher als je zuvor: Laut Salesforce sind inzwischen „92 Prozent der Kunden der Meinung, dass das Gesamterlebnis, das ein Unternehmen bietet, genauso wichtig ist wie das Produkt oder die Dienstleistung, die es anbietet“. Hierfür die richtigen Technologien zu finden, ist damit entscheidend. Sind Systeme und Anwendungen nicht nahtlos und sofort verfügbar, gefährdet dies heute die Loyalität von immer mehr Kunden.

Die dynamischen Marktbedingungen fordern deutlich intelligentere Ansätze, um Kunden zufrieden zu stellen – ein zuverlässiger „Always On“-Service wird zunehmend zum Grundbedürfnis.

Fünf Empfehlungen für eine nachhaltige und kosteneffiziente „Always On“-Infrastruktur:

1. Verringerung der IT-Komplexität: Die meisten Unternehmen benötigen heute eine zusätzliche dedizierte Einzellösung (High-Availability-Gateway/HA-Gateway) mit einem anderen Funktionsumfang sowie Management-Tools und Überwachungsanforderungen. Dies erhöht die Komplexität der Betriebs- und Automatisierungsprozesse. Unternehmen sollten daher nach einer integrierten Lösung suchen, die Storage- und „Always On“-Funktionen kombiniert.

2. Senkung der Kosten: HA-Gateways sind teuer und werden oft pro Kapazität berechnet. Dies zwingt Unternehmen, die Anzahl der Anwendungen, die von „Always On“ profitieren, zu minimieren. Erfordert die HA-Lösung eine Glasfaserverbindung zwischen den Standorten, kommt sogar noch ein zweiter Kostenfaktor hinzu. In der Praxis zeigt sich, dass Unternehmen viel mehr Anwendungen schützen, wenn ihnen dafür nicht jedes Mal etwas dazu berechnet wird.

3. Übergreifend konstante Performance: Synchroner Betrieb über zwei Speichersysteme, an zwei Standorten hinweg, erhöht die Latenzzeit. Der Einsatz für latenzkritische Anwendungen wird damit schwieriger – und zwar unabhängig von ihrer Wichtigkeit. Bei Implementierungen über große Entfernungen führt das Senden eines Schreibvorgangs, an das lokale Speicher-Array und eines weiteren an das entfernte Array, zu einer bis zu doppelt so langen Latenzzeit. Dies wiederum führt zu einer inkonsistenten Benutzererfahrung und damit oft zu einer Fehlkonfiguration, die sich aber leicht korrigieren lässt: durch eine Vereinfachung und Automatisierung der Konfiguration. Die „Hosts“ müssen die Pfade, die sie ständig verwenden sollen, von denen unterscheiden können, die nur in einem Ausfallszenario zu verwenden sind. Um eine breitere Akzeptanz zu erreichen, müssen die Unternehmen daher die Auswirkungen auf die Leistung minimieren.

4. Variable Funktionalitäten: Viele Lösungen, die behaupten, „Always On“ zu sein, unterscheiden sich stark in ihrer Funktionalität: Einige bieten eine schreibgeschützte Kopie der Daten an einem Standort sowie automatisiertes Failover an. Andere dagegen verzeichnen hohe Leistungseinbußen, wenn sie Schreibprozesse an die „sekundäre“ Kopie senden. Durch eine gleichmäßige Behandlung beider Kopien mit minimalen bis gar keinen Performance-Unterschieden können Hosts auf beiden Seiten in wirklich aktiven Kopien ohne Failover-Prozess arbeiten.

5. Zuverlässigkeit: Wie bei jeder geografisch verteilten Lösung muss es auch bei „Always On“-Clustern im Falle eines Kommunikationsausfalls eine Möglichkeit geben, die Verbindung zwischen beiden Systemen zu „unterbrechen“. Letztlich sollten Unternehmen eine Witness in einer dritten Fault-Domäne mit redundanter Vernetzung zu jedem Standort einsetzen. Denn nur dann besteht eine Mindestabsicherung, falls die ersten beiden Systeme nicht direkt kommunizieren können. Es liegt in der Verantwortung des Anbieters sicherzustellen, dass die Witness der bevorzugten Einsatzmethode des Kunden (Cloud/On-Premises) entspricht.

Eran Brown, Chief Technology Officer EMEA bei Infinidat.
Eran Brown, Chief Technology Officer EMEA bei Infinidat. (Bild: Infinidat)

*Der Autor: Eran Brown, CTO EMEA bei Infinidat

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45798846 / Daten)