Mobile-Menu

Business Continuity und Disaster Recovery beim Cloud-Storage Ohne Strategie drohen böse Überraschungen

Von Lars Bräuer* |

Anbieter zum Thema

Ob Daten bei einem externen Rechenzentrums-, RZ-Service-Betreiber oder Cloud-Anbieter auch wirklich sicher sind und ob eine uneingeschränkte Verfügbarkeit der gebuchten Dienste tatsächlich gegeben ist, wird immer wieder viel diskutiert. Grundsätzlich ist zwar davon auszugehen, dass bei einem renommierten Dienstleister Spezialisten arbeiten, die vieles besser können, als man es im unternehmensinternen Serverraum leisten könnte. Allerdings schützt dies noch lange nicht vor Ausfallzeiten oder Datenverlust.

Die Auslagerung von Daten an externe Dienstleister hat Vorteile für Unternehmen. An einer IT-Strategie inklusive eines Disaster-Recovery-Konzepts führt trotzdem kein Weg vorbei.
Die Auslagerung von Daten an externe Dienstleister hat Vorteile für Unternehmen. An einer IT-Strategie inklusive eines Disaster-Recovery-Konzepts führt trotzdem kein Weg vorbei.
(Bild: ©Funtap - stock.adobe.com)

Denn dafür muss der Kunde entweder die passenden Services in Anspruch nehmen, oder er muss selbst für Ausfallsicherheit und die passenden Recovery-Lösungen sorgen, die seinen Ansprüchen genügen. Worauf sollten Unternehmen also achten, wenn sie externe Rechenzentrumsdienstleistungen in Anspruch nehmen? Diese Frage lässt sich nicht mit einer einfachen Antwort klären. Denn der feine Unterschied liegt in den vielfältigen, am Markt erhältlichen Angeboten.

Für die verschiedenen Aufgaben einer externen IT bedarf es je nach Anforderung unterschiedlicher Dienste und Services. Auch wenn sich die Ausprägungen dieser Dienste sehr unterscheiden können, haben sie alle eines gemeinsam: Kunden benötigen Sicherheit in Bezug auf ihre Daten und die Verfügbarkeit von Funktion und Applikationen, die ihren individuellen Ansprüchen genügt. Je komplexer und dezentraler eine IT-Struktur aufgebaut ist, desto mehr hat dies Gültigkeit.

Jüngste Ereignisse, darunter das vielleicht derzeit prominenteste, der Brand im OVH-Rechenzentrum, zeigen, dass der Wert von Daten und deren Verfügbarkeit, inklusive kritischer Applikationen, nicht hoch genug eingeschätzt werden kann. Ergo bedarf es einer grundlegenden Sicherheits- und Verfügbarkeitsstrategie, wenn man IT zu einem Dienstleister auslagert. Eine besondere Rolle innerhalb dieser Strategie nehmen Überlegungen hinsichtlich der Business Continuity sowie eines funktionierenden Disaster-Recovery-Konzepts ein.

Auf den Dienst und Service kommt es an

Die oft zitierte Regel, dass sich der Provider, also der Dienstleister, um die Infrastruktur und deren Resilienz kümmert und dass der Kunde für die Sicherheit seiner Daten und Applikationen verantwortlich ist, ist in vielen Fällen richtig. Allerdings differenziert sie zu wenig und greift auch zu kurz.

Dazu zwei Beispiele: Bucht ein Unternehmen Datenvolumen bei einem Provider, dann entscheiden unterschiedliche Service-Level normalerweise darüber, mit welcher Zuverlässigkeit die Speicherinfrastruktur zur Verfügung steht. Hier ist es tatsächlich in vielen Fällen so, dass der Provider die Hoheit über die RZ-Infrastruktur hat und für deren zuverlässigen und unterbrechungsfreien Betrieb verantwortlich ist. Im Gegenzug ist meistens der Kunde für die die Sicherheit der Daten alleinverantwortlich.

Der Kunde entscheidet also mit eigenen Überlegungen und Mitteln über die nötigen Backups beziehungsweise das Disaster Recovery. Er legt fest, wie schnell in einem Notfall die Daten wiederhergestellt werden müssen. Ihm ist es überlassen, wie er seine Prioritäten für die Wiederherstellung setzt – sprich RTO (Recovery Time Objective) und RPO (Recovery Point Objective). Es ist also eine Kombination aus Verantwortlichkeiten, die im Idealfall aufeinander abgestimmt sind.

Allerdings herrschen genau hier viele Missverständnisse. Denn in der Praxis zeigt sich, dass Kunden oftmals davon ausgehen, dass der Provider nicht nur für die Infrastruktur selbst, sondern auch für die Daten und Applikationen zuständig ist. Dies führt auch zur Annahme, dass die Daten sicher sind, solange sie sich in der bereitgestellten Infrastruktur befinden. Dem ist in sehr vielen Fällen nicht so.

Das Gegenteil vom ersten Beispiel verdeutlicht ein externer Service, der von Managed Service Providern beziehungsweise Business Providern angeboten wird, wie beispielsweise vom Berliner Business Hoster mpex. Diese Art von Services wird oft von Unternehmen bevorzugt, die genau wissen, wie sehr ihr Business von der externen Infrastruktur inklusive der Daten abhängt. Besonders deutlich wird dies etwa bei mittleren und großen Webshops. Daten, Hosting und Infrastruktur sind in hohem Maß voneinander abhängig, und keine dieser Komponenten darf ausfallen – oder muss gegebenenfalls umgehend wiederherstellbar sein. In diesem Fall überträgt der Kunde nicht nur die Verantwortung über die Infrastruktur (beispielsweise Storage) an den Provider, sondern das komplette System. Der Provider ist für den Betrieb und zu einem gewissen Maß auch für die Sicherheit der Daten verantwortlich und garantiert, je nach Servicelevel, den fortlaufenden Betrieb des gesamten Webshops – inklusive Infrastruktur, Applikation und Daten.

Folglich: Es ist eine strategische Entscheidung, wer die Verantwortlichkeit im Zusammenspiel zwischen dem Unternehmen und dem Provider für die unterschiedlichen Gewerke trägt.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Data-Storage und -Management

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Manchmal ist günstig richtig teuer

Viele Unternehmen achten bei ihrer Digitalstrategie sehr genau auf die Budgets und verteilen die Ressourcen auf die augenscheinlich optimalen beziehungsweise lukrativsten Angebote und Komponenten – intern wie extern. In vielen Fällen ist das eine sinnvolle Vorgehensweise. Ein typisches Beispiel ist eine Test- und Entwicklungsumgebung, in der Anwendungen entwickelt und geprüft werden. Diese benötigen meist temporär Computing-Leistung und Speicher. Die entsprechenden Ressourcen sind bei vielen Anbietern schnell über das Web zusammengestellt, gebucht und stehen nach kurzer Zeit zur Verfügung.

Das Risiko hier ist überschaubar, denn die Infrastruktur wird sicher vom Provider betrieben, und die Entwickler können diverse Stadien in ihrem Entwicklungsfortschritt leicht auf einer anderen Ressource sichern. Selbst wenn etwas grundlegend schiefgehen sollte, wird das eigentliche Geschäft des Unternehmens nicht wesentlich beeinträchtigt oder gar gefährdet. Hier ist eine kostensensitive Entscheidung gerechtfertigt.

Nutzt man eine ähnliche kostengünstige Umgebung für geschäftskritische Umgebungen, beispielsweise für den Betrieb eines gesamten Webshops, begibt man sich mit seinem Kernbusiness auf dünnes Eis. Ausfälle oder Datenverluste ohne geeignete Notfallpläne inklusive Backups und Disaster-Recovery-Strategie können den Webshop im Handumdrehen lahmlegen und in nur kurzer Zeit für empfindliche Umsatzeinbußen sorgen. Dies gilt selbstverständlich für jegliche geschäftskritische Applikationen, etwa Kundenportale, Mitarbeiterportale, medizinische Studien, Produktions-Pipelines oder datenbankgestützte Apps für die Zusammenarbeit mit anderen Unternehmen.

Auf die Strategie folgt der Plan

Genauso akribisch und detailliert, wie Businesspläne mit Zielen und dem Weg zum Erfolg verfasst werden, braucht auch die IT eine klare, schlüssige und durchdachte Strategie. Und da mit gutem Grund immer mehr IT mit externen Services abgedeckt wird, kommen der Strategie und einem detaillierten Plan immer größere Bedeutung zu.

Ein wesentlicher Teil dieser Planung beruht darauf, die Aufgaben und Wichtigkeit zu priorisieren. Dabei ist ein Applikations-Tiering enorm wichtig. Dieses beschreibt, welche Applikationen grundsätzlich keinen Ausfall erlauben oder welche Applikationen vor anderen Vorrang haben, wenn eine Wiederherstellung nötig werden sollte. Im nächsten Schritt lassen sich wichtige Parameter wie Recovery Time Objective (RTO), Recovery Point Objective (RTO) oder Mean Time To Recover (MTTR) definieren. Wenn diese zugrunde liegen, ergeben sich daraus automatisch die dazu passenden IT-Services von externen Dienstleistern in entsprechender Qualität und Ausprägung.

Anschließend folgt der Plan. Dabei ist neben dem technischen Aufbau der IT-Services vor allem auch der Notfallplan gemeint. Und hier stellt sich eine wichtige Grundsatzfrage: Kann oder will man einen Notfall komplett mit Inhouse-Ressourcen abdecken, oder ist die Einbindung von externer Expertise vonnöten?

Gibt man seine Infrastruktur und Applikation, beispielsweise den Webshop, zu einem Business beziehungsweise Managed Service Provider, hat man den Vorteil, dass ein Großteil des gesamten Notfallmanagements und damit auch die Aufgaben und Abläufe eines Disaster Recovery an einen Spezialisten übergeben werden. Zudem unterstützt der Managed Service Provider mit seiner Expertise bei der Erstellung des Notfallplans und fragt die wichtigen Punkte ab. Er hilft bei der Priorisierung der Wiederherstellung und unterstützt mit wichtigen Notfalltests, die schlussendlich die tatsächliche Funktionsfähigkeit des Disaster Recovery bestätigen. In Zeiten von überlasteten internen IT-Teams und dem Mangel an Fachkräften könnte dies für viele Unternehmen aus strategischer Sicht die optimale Vorgehensweise sein.

Checkliste für die Strategieplanung

  • Basis für die Strategie: Feststellung, wie teuer ein Ausfall der Infrastruktur ist und welche Auswirkungen dieser hat.
  • Verfügbarkeitsanforderung: Realistische Einschätzung, wie schnell das System wiederhergestellt sein muss und ob beziehungsweise welche Schritte selbst übernommen werden können.
  • Definition: Bis wann und ab welcher Summe ist ein desasterbedingter Umsatzausfall „verkraftbar“, und ab welchem Stadium tritt eine unternehmensbedrohende Situation ein?
  • Business-Impact-Analyse: Priorisierung der Applikationen und Daten entsprechend der geschäftskritischen Bedeutung für das Unternehmen:
    ◦ Welche Daten,
    ◦ welche Services,
    ◦ welche Applikationen müssen primär verfügbar sein?
  • Schwelle zum Notfallbetrieb: Ab einer definierten Situation muss eine Entscheidung über einen Notfallbetrieb getroffen werden. Wichtig ist hier, wer diese Entscheidung auf welcher Grundlage und welchen Schwellenwerten trifft. Die Schwelle steht in direktem Zusammenhang mit dem Aufwand zur Rückkehr vom Notfall- zum Normalbetrieb
  • Ziele zur Wiederherstellung setzen:
    ◦ Recovery Time Objective: Wie lange darf die Wiederherstellung maximal dauern – Sekunden, Minuten, Stunden oder gar Tage?
    ◦ Recovery Point Objective: Wie viele Daten dürfen maximal verloren gehen, also in welchen Abständen müssen Daten gesichert werden?
  • Mean Time To Recovery: In welchem Zeitraum soll das komplette System wiederhergestellt sein?
  • Bereitstellung der Wiederherstellung:
    ◦ Cold Site: Anstarten im Krisenfall, Datenwiederherstellung (einige Stunden),
    ◦ Warm Site: geringer Versatz durch manuelles Anschalten (wenige Minuten),
    ◦ Hot Site: aktiv in den Betrieb eingebunden, geringer Versatz (wenige Sekunden).
  • Testen des Disaster-Recovery-Plans und regelmäßige Tests einplanen.
  • Evaluierung nach einem eingetroffenen Krisenfall.

Erst Tests bringen Gewissheit

Sind die Strategie, das Applikations-Tiering samt der Business-Impact-Analyse sowie die Notfallpläne angelegt und definiert, ist ein Großteil der nötigen Vorarbeit für den Betrieb der IT bei externen Providern geleistet. Egal, für welchen Weg man sich entscheidet – für den schnellen günstigen Cloud-Service oder für das hochwertige Business Hosting beim Managed Service Provider –, die Qualität der Planung beweist sich erst durch eingehende Tests im produktionsnahen Betrieb. Mit Tests kann der Grad an gewünschter und im Plan definierter Sicherheit und Resilienz bestätigt werden. Hat man einen einfachen Cloud-Service gebucht und kümmert sich um die Backups der Daten selbst, geht kein Weg daran vorbei, die Datensicherung auf Funktionalität, Vollständigkeit und vor allem auf deren Recovery-Geschwindigkeit zu prüfen. Dabei reicht ein initialer Test, etwa nach der Einrichtung der Services, nicht aus. Empfehlenswert ist, die Tests in regelmäßigen Abständen zu wiederholen.

Deutlich umfangreicher gestalten sich Tests bei komplexen Strukturen, die beispielsweise Hardware, Infrastruktur, Konnektivität, Applikationen und Daten beinhalten. Disaster-Recovery-Notfallpläne müssen nicht nur über alle Systeme an einem Ort durchgeführt werden, sondern beispielsweise auch an weiteren externen Notfallrechenzentren. Je nach Service-Level und Dynamik der Geschäftsumgebung ist es ratsam, alle 24 bis 36 Monate die kompletten Disaster-Recovery-Pläne zu durchlaufen, inklusive der Tests an Cloud-, Warm- oder Hot- beziehungsweise Fail-Over-Sites.

Neues eBook

Speicherinfrastrukturen in Unternehmen

On-Premises oder Storage-as-a-Service?

eBook NAS
eBook Speicherinfrastrukturen
(Bildquelle: Storage-Insider)

In diesem eBook erfahren Sie, welche Cloud-Storage-Angebote es für den Mittelstand gibt, wie viel Speicherinfrastruktur ein Unternehmen benötigt und welche Strategien es für die Ausbalancierung der Speicherinfrastruktur gibt.

Die Themen im Überblick:
# Wie viel Speicherinfrastruktur benötigt ein Unternehmen?
# Ausbalancierung von On-Premises und Cloud-Speicher
# Cloud-Storage-Anbieter und -Lösungen für den Mittelstand

>>> eBook „Speicherinfrastrukturen in Unternehmen: On-Premises oder Storage-as-a-Service?“ downloaden

Zudem empfiehlt es sich, im Zuge der Tests auch die Aktualität des Notfallplans abzufragen und gegebenenfalls Anpassungen vorzunehmen, wenn sich Geschäftsbereiche oder Applikationen ändern. Diese aufwendigen Tests sind von Unternehmen nur mit großen und sehr erfahrenen IT-Teams zu leisten. Denn sie müssen nicht nur parallel zum laufenden IT-Betrieb stattfinden. Sie bedürfen zudem viel Erfahrung, um die Notfallszenarien zu simulieren und die potenziellen Fehler und Flaschenhälse zu erkennen.

Bei einem Managed Service kann dies komplett an den Dienstleister ausgelagert werden. Dieser sorgt bei Bedarf für die vollständige Testung aller Komponenten oder führt bei einer höheren Budgetsensibilität Tests an besonders kritischen Teilbereichen durch. Anhand einer ausführlichen Dokumentation werden Fehler oder Optimierungspotenziale, inklusive der möglichen Maßnahmen, ebenso festgehalten wie ein einwandfreier, komplett gelungener Testdurchlauf.

Fazit

Jedes Unternehmen hat individuelle Ansprüche an Datensicherheit und Ausfallsicherheit im Zusammenspiel mit einem externen IT-Provider. Um im Ernstfall keine bösen Überraschungen zu erleben, ist es theoretisch die Aufgabe jedes Unternehmens, die Ansprüche sehr genau zu formulieren. Der entscheidende Vorteil aus einer Zusammenarbeit mit einem Provider ist, dass dieser mit seiner Erfahrung und seinem Know-how maßgeblich dazu beitragen kann, die individuellen Ansprüche gemeinsam mit dem Unternehmen zu definieren. Auf dieser Grundlage können die richtigen Fragen gestellt und die individuell passenden Services in entsprechender Qualität gewählt werden.

Mit einer Strategie und einem detaillierten Plan lassen sich Missverständnisse über die Verantwortlichkeiten von Anfang an vermeiden. Benötigt man wenig Sicherheit und ist diese mit einfachen Bordmitteln zu bewerkstelligen, reichen simple IT-Services oder Cloud-Dienste oftmals aus. Um für Gewissheit hinsichtlich der Ausfallsicherheit, der Datensicherheit und der Resilienz bei strategisch wichtigen Komponenten der IT zu sorgen, können Spezialisten bei Business Hostern beziehungsweise Managed Service Providern – im Idealfall sogar mit offiziellem Testat für Prüfgesellschaften und ISO 27001 zertifiziert – die entscheidende Erfahrung und Expertise beitragen, um die hohen Anforderungen zu erfüllen.

Lars Bräuer, CEO/Geschäftsführung der mpex GmbH.
Lars Bräuer, CEO/Geschäftsführung der mpex GmbH.
(Bild: mpex)

*Der Autor: Lars Bräuer, CEO/Geschäftsführung der mpex GmbH

(ID:47477557)