IT-Architekturen im Umbruch

Naht das Ende der Datensicherung, so wie wir sie kennen?

| Autor / Redakteur: Sven Haubold* / Tina Billo

(Bild: Arcserve)

Im Laufe der kommenden Jahre stehen uns rund um die Sicherung und den Schutz von Daten einschneidende Veränderungen bevor, die den Einzug neuer Architekturen vermutlich unumgänglich machen. Das muss nun allerdings nichts Schlechtes sein, sondern kann sich vielmehr als äußerst vorteilhaft herausstellen.

Der Markt für Backup- und Recovery-Lösungen ist im Wandel begriffen. Das liegt unter anderem daran, dass die Umstrukturierung oder Modernisierung von IT-Infrastrukturen seit geraumer Zeit in vollem Gange ist und dadurch die effiziente Abwicklung von Geschäftsabläufen stark beeinträchtigt wurde.

In punkto Backup und Recovery trafen und treffen dabei einige Faktoren aufeinander. Hier eine Auswahl:

  • Für das Backup von Daten und die Sicherstellung, dass diese jederzeit hochverfügbar sind, setzen insbesondere größere Organisationen inzwischen oftmals auf Lösungen mehrerer Anbieter. Ergebnis sind inkonsistente und dadurch unübersichtliche Datenschutzinfrastrukturen.
  • Teils bedingt durch einen steigenden Virtualisierungsgrad, nimmt deren Komplexität zu.
  • Verstärkt kommen mehrschichtige Geschäftsanwendungen mit komplexen Datensicherungsschemas zum Einsatz.
  • Das Menge an strukturierten und unstrukturierten Daten wächst exponentiell.
  • Die Einhaltung von Richtlinien und der verantwortliche Umgang mit Daten unterliegt einer schärferen Kontrolle.
  • Ob sich Daten und Systemen wiederherstellen lassen, ist nicht mit Sicherheit vorhersagbar.
  • Die zur Verfügung stehenden Ressourcen sind oft knapp, sei es im Hinblick auf die Systeme, das zur Verfügung stehende Personal oder die finanziellen Mittel.
  • Kenngrößen wie der Wiederanlaufzeitpunkt (Recovery Point Objective, RPO) und die Wiederanlaufdauer (Recovery Time Objective, RTO) lassen sich weder ermitteln noch überprüfen.

Ursache vieler dieser Probleme ist, dass Arbeitnehmer mittlerweile den Takt der Unternehmens-IT mitbestimmen möchten. Resultat dieses als "Konsumerisierung" bezeichneten Trends ist, dass Mitarbeiter die beständige Verfügbarkeit ihrer Daten fordern und die von ihnen an das für deren Wiederherstellung zuständige Team gestellten Erwartungen deutlich höher sind, als in der Vergangenheit.

Insofern ist ein Umdenken angesagt und findet auch statt. Bewährte Datensicherungspraktiken werden gerade äußerst kritisch unter die Lupe genommen, mit dem Ziel, eine grundlegend bessere Messbarkeit zu erreichen. Dabei liegt ein eindeutiger Fokus auf dem Thema Wiederherstellbarkeit.

Aktuelle Architekturen schwächeln

Von Analysten veröffentliche Untersuchungen zeigen, dass sich der große und etablierte Markt an Backup- und Recovery-Lösungen nach wie vor auf einem Wachstumskurs befindet und die darin aktiven Hersteller beachtlich investieren. Viele Produkte eignen sich jedoch nur für bestimmte Einsatzszenarien, sind also Einzel- oder Nischenlösungen. Hinzu kommt, das sie häufig nicht unbedingt durch Benutzerfreundlichkeit glänzen oder es an Skalierbarkeit mangelt.

Die verstärkte Nutzung von Virtualisierungstechniken in Kombination mit den beständig exorbitant ansteigenden und zu bewältigenden Datenmengen führt darüber hinaus dazu, dass sich aktuelle Architekturen auf verschiedenen Gebieten als unzureichend erweisen. Das wiederum leistet dem Entstehen von Insellösungen und Datensilos Vorschub.

Zusammengenommen und in Anbetracht der zwischen Systemen und Anwendungen bestehenden gegenseitigen Abhängigkeiten kämpfen IT-Verantwortliche somit damit, Services zuverlässig bereit zu stellen. Entscheidend ist für sie, dass sie überprüfen und nachweisen können, dass sich Daten in einer annehmbaren Zeitspanne wiederherstellen lassen und zugleich so aktuell wie nur möglich sind. RPO- und RTO-Kennzahlen werden dabei inzwischen mit der Verfügbarkeit eines Unternehmens gleichgesetzt.

Service-Level-Agreements gehören dazu

Dem steht gegenüber, dass Ressourcen in aktuellen IT-Umgebungen insgesamt nicht optimal genutzt und Prozesse im Hinblick auf ihre Effizienz nicht näher beleuchtet werden. Oftmals kommen für die Sicherung der Daten außerdem veraltete Lösungen mit teuren Lizenzen und eingeschränktem Funktionsumfang zum Einsatz oder aber es wird auf verschiedene Einzellösungen gesetzt. Dadurch potenzieren sich die Probleme und die Komplexität steigt. All dies mündet darin, dass einstmals vorgegebene Service Level Agreements (SLAs) nicht länger greifen, sich schwerlich einhalten lassen oder im schlimmsten Fall gänzlich fehlen. Doch diese sind dringend erforderlich. Wie ließe sich sonst der Mehrwert der Anwendungen für das Unternehmen belegen?

Ohne Frage ist deren Definition eine arbeitsintensive und damit schwierige Hürde, die genommen werden muss. Um realistische SLAs festzulegen, kann die Wiederherstellungsleistung zum Beispiel nicht häufig genug getestet werden. Zudem hat dies auch Auswirkungen auf das Skalierungspotenzial. Denn eines ist sicher: das Datenwachstum wird nicht stoppen und es wird immer kritische Systeme geben. Entscheidend ist, dass diese mit Sicherheit wiederhergestellt werden können. In einem sind sich Branchenbeobachter daher einig: Um all diesen aktuellen Herausforderungen zu begegnen und Effizienzsteigerungen zu erzielen, bedarf es lückenloser Lösungen, die mit einem umfassenden Funktionsumfang aufwarten.

Vollständigkeit ist entscheidend

Das macht deutlich, dass grundlegende Änderungen nötig sind, um die mit der Sicherung und dem Schutz von Daten verbundenen komplexen Schwierigkeiten in den Griff zu bekommen. An erster Stelle steht dabei, eine moderne Architektur aufzusetzen, die aktuelle Probleme behebt und zeitgleich so ausgelegt ist, dass sie eine skalierbare Plattform für die Zukunft darstellt.

Im Hinblick auf die Leistungsmerkmale können bei Datensicherungsprodukten der nächsten Generation keine Kompromisse eingegangen werden: Vollständigkeit ist entscheidend. Das bedeutet, dass in einer Lösung alle für die Datensicherung und Wiederherstellung als zentral angesehenen Technologien kombiniert werden müssen. Diese reichen vom Image- und Datei-Backup bis hin zur Replikation, Deduplizierung, fortschrittlichen Terminplanungstools und vielem weiterem mehr. Darüber hinaus sind Hochverfügbarkeitstechniken sowie die Unterstützung physischer und virtueller Umgebungen sowie unterschiedlichster Medien einschließlich Tape unerlässlich.

Die Liste ist lang und nur einige wenige Anbieter sind dazu in der Lage, diese Features in einem Produkt miteinander zu verbinden. Die Gesamtheit der Anforderungen lässt sich somit nur mit dem Einsatz verschiedener Einzellösungen abdecken. Dass dies ein suboptimaler Ansatz ist, steht außer Frage.

Technologien sind nur das Hilfsmittel

Aus einem anderen Blickwinkel betrachtet, sollte jedes Unternehmen von Lösungen profitieren können, mit denen sich Daten erstklassig sichern und wiederherstellen lassen. Vor den technischen Neuerungen in jüngster Zeit, stand diese Möglichkeit jedoch ausschließlich den größten unter ihnen offen. Innovation heißt aber auch, ein bislang auf nur eine kleine Zielgruppe beschränktes Angebot einem breiteren Kreis zugänglich zu machen. Genau das müssen IT-Architekturen der nächsten Generation leisten: die für große Unternehmen entwickelten Funktionen so zu transformieren, dass sie allgemein erschwinglich und dazu leicht handhabbar sind.

Der Einsatz spezieller Technologien wie Backup oder Replikation stellt dabei nicht den Ausgangspunkt dar, sondern nur eine "Schlussfolgerung". Vielmehr zählt es, das für den Schutz von Daten und Systemen sowie deren Wiederherstellung erforderliche Niveau auf die Unternehmenserfordernisse abzustimmen. Den gestellten Anforderungen durch die Integration entsprechender Techniken in bestehende Lösungen im Nachgang zu begegnen - nur weil diese eben verfügbar sind - verfehlt das Ziel.

Mit modernen Lösungen können Kunden oder Service Provider hingegen mit Leichtigkeit Pläne erstellen, die auf ihren individuellen RPO- sowie RTO-Zielen basieren und die hierfür passende Technologie bedarfsgerecht auswählen.

Das Prinzip Hoffnung reicht nicht mehr

Eine zentrale Rolle bei der Entwicklung der nächsten Lösungsgeneration spielt, zu abstrahieren, welche möglicherweise komplexen Aufgaben oder Workflows im Hintergrund ablaufen. Um diese effizient zu bewältigen, müssen viele Techniken zusammengeführt und so vereinfacht werden, dass sie leicht konfigurierbar sind, sich aber auch weiterhin optimieren lassen. Voraussetzung hierfür ist eine moderne, einheitliche Architektur, die sowohl physische als auch virtuelle Systeme unterstützt, On-Premise-, Off-Premise- und Cloud-geeignet ist sowie Backup, Hochverfügbarkeit und Replikation mit fortschrittlichen Reporting-Tools verbindet.

Diese muss so gestaltet sein, dass sie ein Höchstmaß an Flexibilität bietet und sich durch Benutzerfreundlichkeit auszeichnet. Denn vor allem letzteres stellt angesichts der Komplexität heutiger Datenwiederherstellungsinfrastrukturen mittlerweile eine Grundanforderung dar. Trotz alledem müssen Nutzer alle erforderlichen Funktionen bereitstehen, um mehr Aufgaben mit weniger Ressourcen verlässlicher zu erledigen. Einfach nur zu hoffen, dass die Lösung schon funktioniert, ist bei weitem nicht mehr genug.

Virtualisierung: ein zweischneidiges Schwert

Die in vielen Unternehmen inzwischen verbreiteten virtuellen Umgebungen erweitern das Spektrum einer zum Einsatz kommenden Recovery-Lösung um nützliche Funktionen. Die Unterstützung unterschiedlicher Hypervisoren und fortschrittlicher Features für die Sicherung, Migration und Wiederherstellung von Daten in heterogenen Landschaften ist ein weiteres Muß. Moderne Lösungen müssen daher von Hause aus auf Virtualisierungstechniken ausgelegt sein, dürfen zeitgleich aber auch physikalische Server nicht vergessen.

Die Sicherung und Wiederherstellung von Daten dient vornehmlich dem Zweck, die Betriebsfähigkeit von Unternehmen auch dann aufrechtzuerhalten, wenn es zu Ausfällen kommt. Es gilt zu gewährleisten, dass diese von auftretenden Störungen oder außerhalb des menschlichen Einflussbereiches liegenden Katastrophen nur minimal beeinträchtigt wird. Aktuelle Lösungen, die auf einer einheitlichen Architektur beruhen, bieten allerdings weitaus mehr. Ihr Einsatz ermöglicht die Einhaltung entscheidender Kennzahlen durchgängig zu überwachen und IT-Abläufe - Prozesse, Workflows und die Inanspruchnahme von Ressourcen - zu optimieren.

Anders als landläufig angenommen, geht es bei der nächsten Welle an Sicherungstechniken daher nicht darum, sich auf einen bestimmten mit der Wiederherstellung zusammenhängenden Aspekt oder die Unterstützung von einer oder zwei Virtualisierungsplattformen zu spezialisieren. Ziel ist, die Komplexität der gesamten Umgebung übergreifend zu verringern. Dadurch den Grundstein für einen effizienteren Umgang mit Daten zu legen. Techniken, mit denen sich die Menge der an zu übertragenden und zu speichernden Informationsmengen senken lässt, gehören eindeutig dazu.

Leistung und Skalierbarkeit entscheiden

Unternehmen müssen sich am Markt behaupten. Sei es, indem sie organisch wachsen oder sich zusammenschließen. Unabhängig davon, welche Strategie sie im einzelnen verfolgen und umsetzen, führt dies häufig dazu, dass mehrere Standorte hinzukommen und IT-Infrastrukturen zusammengeschlossen werden müssen. Dadurch ändern sich die an deren Leistung und Skalierbarkeit gestellte Anforderungen gänzlich. Das ist aber nur die eine Seite der Medaille. Auch steigt die Menge der zu bewältigenden Daten an, ganz zu schweigen davon, dass dieses ohnehin exponentiell zunimmt.

Im Hinblick auf die Wiederherstellung von Daten verändert dies einiges. Hier sind Lösungen gefragt, mit denen sich die beständig anwachsenden Mengen effizient verwalten lassen. Deren Einsatz die Einhaltung der auf Basis von RPO- sowie RTO-Zielen festgelegten SLAs garantiert und die so leistungsfähig sind, dass die Durchführung von Backups tatsächlich in den den vorgebenen Zeitfenstern erfolgt.

Die so modular und flexibel konzipiert sind, dass sie mit verschiedenen Plattformen - Festplatten oder Band - zusammenspielen und sich übergreifend (Off- und On-Premise oder in der Cloud) einsetzen lassen. Der Schlüssel hierzu ist Skalierbarkeit und zwar von Hause aus, denn Patches oder komplizierte interimsmäßige Provisorien helfen nur kurzfristig weiter.

Fazit

Die uns bekannten Datensicherungslösungen und -praktiken gibt es noch. Doch es zeichnet sich ein Umbruch ab, hin zu übergreifend einsetzbaren und effizienteren Lösungen, die das Spektrum an bislang punktuell integrierten Techniken zusammenführen und ausschöpfen. Deren Einsatz es IT-Verantwortlichen erleichtert, die für die Sicherung und Wiederherstellung von Daten vorgegebenen Ziele einzuhalten und Abläufe zu optimieren. Dafür muss nur ein Schritt getan werden - sich von veralteten Infrastrukturen verabschieden.

* Sven Haubold ist Territory Account Director bei Arcserve.

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44595725 / Backup/Recovery)