Im Fokus: Cloud Storage – Backup von virtuellen Großumgebungen Punkt- vs. Universalkonzept – am Ende eine Frage von Komfort, Risiko und Geld

Autor / Redakteur: Sascha Oehl* / Dr. Jürgen Ehneß

In großen virtuellen Umgebungen sind mehrere 10.000 virtuelle Maschinen (VMs) kreuz und quer zwischen lokalen Rechenzentren und Cloud-Diensten verstreut. Wie ließen sich diese dynamische, wachsende Welt per Backup sichern und zugleich Aufwand und Kosten senken? Ideal wäre doch ein Konzept, das nach dem Set-and-forget-Prinzip VMs automatisch sichert, ihnen ein Regelwerk und Speicher autonom zuweist und gleich auch noch alle anderen kritischen Workloads abdeckt, von lokal über den Core bis in die Cloud.

Im Fokus: Cloud Storage – der Gastbeitrag beschäftigt sich mit dem Thema „Cloud-basiertes Backup von virtuellen Großumgebungen“.
Im Fokus: Cloud Storage – der Gastbeitrag beschäftigt sich mit dem Thema „Cloud-basiertes Backup von virtuellen Großumgebungen“.
(Bild: gemeinfrei / Pixabay )

Irgendwann kommt der Punkt, an dem eine simple Frage nicht mehr klar beantwortet werden kann: Sind alle VMs in der Produktion definitiv gesichert? Wer hunderte oder tausende betreibt, mag sich noch recht sicher sein, dass dies der Fall ist. Aber je größer die Umgebung ist, je verteilter und hybrider die Applikationen und Infrastruktur sind, desto schwerer fällt die klare Antwort. Schließlich arbeiten die Teams der Virtualisierung und die Backup-Teams in ihren eigenen Domänen. Und eine VM ist schnell mal aufgesetzt. Ob sie definitiv im Backup-Plan auftaucht? Wer mag da sein Monatsgehalt setzen?

Natürlich ließe sich einwenden, dass die Virtualisierer ihre eigenen Werkzeuge oder die so genannten Cloud-nativen Snapshot-Werkzeuge verwenden, um ihre virtuellen Maschinen und deren Daten abzusichern. Das funktioniert im Alltag, hat allerdings einen strukturellen Nachteil. Mit jeder Einzellösung wächst der Grad der Komplexität, da sich jede individuell verhält, eigene Steuer- und Menüfunktionen liefert und per se eine Lösungsinsel etabliert.

Abdeckungslücken

Jede Lösungsinsel für sich setzt individuelle Service Level Agreements und Service Level Objectives fest. Doch dabei sind sie weder einheitlich noch untereinander synchronisiert. Jede Lösung deckt ihre Domäne ab, Überlappungen zu anderen Bereichen sind per Konzept nicht vorhergesehen, wodurch Lücken in der Abdeckung entstehen können.

Folglich sind im Ernstfall das System und seine Daten nicht gesichert. Fristen sowie Qualitätsmerkmale für die Wiederherstellung wichtiger Daten sind weder messbar noch zu garantieren. Die Abteilungen werden selbst untereinander Aufgaben manuell abwickeln, um Daten in großem Stil wiederherzustellen. In einem solch klaren Krisenmoment ist das allerdings eine denkbar unglückliche Ausgangslage für die IT-Abteilung. Unter dem Strich führen Punktlösungen zu mehr Brüchen im Workflow, dadurch zu größeren Risiken und am Ende zu höheren Kosten.

Um nicht in solch schwierige Situationen zu kommen, bieten sich ganzheitliche Datenschutzkonzepte an – beispielsweise NetBackup von Veritas. Die Lösung unterstützt mehr als 800 verschiedene Datenquellen, über 60 verschiedene Cloud- und mehr als 1.200 Storage-Infrastrukturen. Sie fungieren als Gleichmacher, da sie im Idealfall für alle Daten und Applikationen das gleiche hohe Niveau an Datensicherheit garantieren, völlig unabhängig davon, ob die Applikation auf einem alten IBM-Linux-System läuft oder in der Cloud eines beliebigen Providers.

Der Ruf dieser umfassenden Plattformen für Datensicherung und -management hat in der Vergangenheit gelitten, da die Befürworter der Punktlösungen ihre schnellen und angepassten Werkzeuge propagierten, die ihrerseits auf der grünen Wiese entwickelt und in der Cloud geboren sind. Die kleinen Tools sind nun mal schlank und schnell, beherrschen aber nur wenige Workloads. Die Engländer sagen dazu „one trick pony“.

Schlank und autonom

VMware-Administratoren sind darauf fokussiert, ihre Workloads und Daten zu sichern. Fragen zu Speicher, Infrastruktur sowie Abstimmungen mit den Backup-Teams im Hintergrund sorgen dagegen für ineffiziente Arbeitsprozesse bei ihnen. Die Punkttools kamen den Admins hier sehr entgegen, da sie völlig autonom alle diese Fragen beispielsweise über die Cloud direkt lösen konnten.

Um diesen großen Vorteil im Betrieb zu behalten, zugleich aber durchzusetzen, dass für alle virtuellen Maschinen wie die alten Applikationen gleiche zuverlässige Regeln und Vorgaben gelten, müssen im Hintergrund einige wichtige Aufgaben abgewickelt werden.

Sobald eine neue virtuelle Maschine aufgesetzt wird, muss für sie sofort ein entsprechender Schutzplan mit allen Richtlinien und Konfigurationen parat sein. Dieser Plan enthält dann die nötigen Definitionen von Speicher, Infrastruktur, Backup-Fenster und dem Intervall. Dieses Prinzip des „set and forget“, also einmal gesetzt und dann vergessen, setzt durch, dass keine einzige virtuelle Maschine übersehen wird. Hierzu müssen die virtuelle Umgebung und die zentrale Plattform für die Datensicherung eng miteinander kommunizieren und über zertifizierte Schnittstellen miteinander gekoppelt sein.

Volle Autorität über die Workloads

Damit VM-Administratoren allerdings die zentrale Plattform im Alltag akzeptieren, müssen sie ihnen die gleichen Privilegien und eine ähnliche Benutzerfreundlichkeit liefern wie es ihr isoliertes Werkzeug erledigt. Dazu gehört, dass der VMware-Verantwortliche seine virtuellen Maschinen selbst wiederherstellen kann, ohne sich mit anderen Teams absprechen oder Tickets öffnen zu müssen. Er will die volle Autorität über seine Workloads behalten.

NetBackup geht noch einen Schritt weiter und erlaubt es dem Admin, seine eigenen VMs granular zu restoren, indem er gezielt einzelne VMDK-Objekte auswählt und diese wiederherstellt, statt beispielsweise die gesamte VM mounten zu müssen, um seine Daten zurückzubekommen. Er kann auch die gesamte VMware vSphere Virtual Maschines über die NetBackup Appliance booten, so dass er den Betrieb sofort wiederaufnehmen kann, ohne auf den Backup-Admin warten zu müssen. All das geschieht über eine grafische Oberfläche, die im Hintergrund per Access Control die berechtigten Ressourcen des jeweiligen Users und seine freigeschalteten Tasks aufzeigt. So wird genau geregelt, wer welche Aktionen auf welchen Daten und Applikationen tatsächlich durchführen und wer beispielsweise nur den Status quo überwachen darf. Diese Rechtesteuerung bleibt für den VMware-Admin genauso verborgen wie komplexe Zuweisungen von Speicher oder Infrastruktur.

Die Frage nach Skalierbarkeit

Es ist wichtig, genügend Leistung zu liefern, um mehrere 10.000 virtuelle Maschinen unabhängig von ihrem Standort wegzusichern und die Backup-Zeitfenster einzuhalten. Veritas hat mehrere Ansätze gewählt, um sowohl in Scale-Up- als auch in Scale-Out-Architekturen genügend Leistung bringen.

Zuerst einmal wurde ein Load Balancing für effiziente VM-Backups integriert. Per Policy werden die Backup-Loads automatisch auf mehrere physische ESX Server verteilt, damit mehrere Backups parallel laufen und so die schnellsten Backups mit der höchsten Erfolgsrate erreicht werden. „Die meisten VMs sind in einer bis fünf Minuten gesichert“, sagt Takuro Suzuki, Manager bei der Network Development Section bei Entetsu.

Neues eBook

Umfassender Überblick über die verschiedenen Möglichkeiten für Cloud-Storage

Cloud-Speicher-Strategien im Vergleich

eBook Cloud-Speicher
eBook Cloud-Speicher
(Bildquelle: Storage-Insider)

Die Hauptthemen des eBooks sind:
# Günstig, schnell und sicher: Storage in der Cloud
# Wozu Cloud-Storage-Plattformen?
# Exklusiver Cloud-Storage vor Ort
# Standardisierter Cloud-Storage von Providern
# Das Beste aus beiden Welten vereinen
# Alternativlos – aber die Qual der Wahl bleibt


>>> eBook „Cloud-Speicher-Strategien im Vergleich“ downloaden

Außerdem setzt Veritas auf die so genannte Accelerator-Funktion, die mehrere Vorteile von Change-Journalen, Deduplizierung und optimierten synthetischen Backups kombiniert. Dank dieser Funktion muss nicht mehr das gesamte Filesystem nach modifizierten Daten durchsucht werden. Zudem verkleinert sich die Menge der Daten, die gesichert werden müssen. Auf Volumes, die sich selten ändern, kann das Backup bis zu 100-mal schneller erfolgen. Diese Vorteile können bei virtuellen Maschinen, die sich ebenfalls selten verändern, voll zum Tragen kommen.

Damit bei großen virtuellen Serverfarmen genügend Performance vor Ort verfügbar ist, hat Veritas dezidierte Appliances entwickelt, auf denen alle wichtigen Operationen ablaufen. So wird die virtuelle Maschine auf einer Appliance gebootet, sobald der VM-Admin den Prozess anstößt. Aber auch CPU-intensive Aufgaben wie die Deduplizierung der Daten werden dort abgewickelt.

Die Deduplizierung der Daten erreicht im Schnitt einen Wert von 50 zu eins und reduziert Speicherbedarf für die Backups. Dabei kreieren Firmen im Schnitt zwölf Kopien ihrer Produktionsdaten, die 70 Prozent ihres Speichers und 70 Prozent ihres Budgets konsumieren. Der Platzbedarf dieser Kopien ließe sich bis zu 80 Prozent reduzieren.

Zuverlässigkeit als Nebeneffekt

Wenn sich die Menge der Kopien und Daten erheblich verkleinert, vereinfacht sich die Kontrolle der Zugriffe darauf. Dies kommt dem generellen Sicherheitsniveau im Unternehmen zugute.

Eine zentrale Plattform für Datensicherung liefert an anderer Stelle einen entscheidenden Vorteil. Sie kann die Wiederherstellung für alle Workloads und Daten, die sie sichert, berechenbar machen und zuverlässige Fristen durchsetzen, plattformübergreifend und unabhängig davon, ob es sich um eine alte Applikation im lokalen Rechenzentrum oder den jüngsten schlanken, dynamischen Cloud-Dienst handelt.

Veritas hat seine Plattform NetBackup zudem über Standardschnittstellen, so genannte REST-APIs, nach außen hin geöffnet, um mit anderen übergelagerten Systemen wie Remedy zu kommunizieren. Das Ziel ist, wichtige Standardaufgaben zu automatisieren, um noch schneller und einheitlicher auf den Ernstfall zu reagieren.

Sascha Oehl, Director Technical Sales bei Veritas Technologies.
Sascha Oehl, Director Technical Sales bei Veritas Technologies.
(Bild: (c) www.MarcFippel.de)

Auf diese Weise sinkt das Risiko, Daten zu verlieren, genauso wie die Kosten beim Management und der Speichernutzung. Und das Konzept kann dank der skalierbaren Architektur und der kontinuierlichen Unterstützung neuer Workloads mit dem Netz und der Datenmenge mitwachsen – komme, was wolle.

*Der Autor: Sascha Oehl, Director Technical Sales bei Veritas Technologies

(ID:47019693)