Suchen

Im Fokus: Backup – Datensicherung für jeden Bedarf Weniger Physik – mehr Demokratie

Autor / Redakteur: Mathias Wenig* / Dr. Jürgen Ehneß

Am 31. März war „World Backup Day“ – für uns der Auftakt für einen umfassenden Themenschwerpunkt: Jede Woche finden Sie an dieser Stelle neue Artikel unter der Flagge Im Fokus: Backup – Datensicherung für jeden Bedarf. In diesem Beitrag schreibt Mathias Wenig von Veritas über den Wandel des Backups und erklärt, warum es unbedingt auf mehrere Schultern verteilt werden sollte.

Firmen zum Thema

Im Fokus: Backup – Datensicherung für jeden Bedarf.
Im Fokus: Backup – Datensicherung für jeden Bedarf.
(Bild: ©REDPIXEL - stock.adobe.com)

Die Cloud ist in deutschen Unternehmen längst alltäglich geworden, wie eine Studie von Veritas zeigt. So nutzen 75 Prozent die Dienste eines Provider, 67 Prozent haben bereits zwei und 42 Prozent sogar drei Cloud-Dienstleister unter Vertrag. Business-Anwender haben den großen Vorteil erkannt, Cloud-Ressourcen schnell zu buchen und diese Ressourcen und die eingesetzten IT-Dienste selbst verwalten zu können. Mit wenigen Klicks führen sie neue Cloud-Services, Workloads oder Plattformen ein – ohne dass die IT-Abteilung involviert ist. So lassen sie die Menge und Vielfalt der Daten explodieren.

Die Verantwortlichen für das Backup müssen der Datenfluten Herr werden und immer stärker gemischte und verteilte Umgebungen unter Kontrolle behalten – ohne dafür mehr Personal oder Budget zu bekommen. Um diesen Spagat zu schaffen, wird die IT ein modernes Backup-Konzept auf den Weg bringen müssen, das Big Data, Multi-Cloud und auch Betriebsmodelle wie „Infrastructure-as-a-Code“ souverän beherrscht und alle Plattformen und Infrastrukturen abdeckt.

Verantwortlichkeiten aufteilen

Ein entscheidender Schritt, damit Backup-Verantwortliche auch in komplexen Umgebungen aus lokalen Rechenzentren, Private- und Public-Clouds die explodierenden Datenmengen zuverlässig sichern und vor allem wiederherstellen können, ist es, die bisherigen Teams zu entlasten. Die Wiederherstellung von Daten und Workloads muss auf mehrere Schultern im Unternehmen verteilt werden. So können Mitglieder der Big-Data-Teams oder Vmware-Umgebungen ihre eigenen Ressourcen, Daten und Plattformen kontrollieren, Daten wiederherstellen oder auf frühere Versionen zurückschalten, ohne die Backup-Teams fragen zu müssen.

Dadurch gewinnt die Benutzeroberfläche an Bedeutung: Ein rollenbasierter Access-Control-Mechanismus sollte Rechte und Rollen definieren und den Zugriff auf Backup-Aufgaben, Tasks, Policies und Monitoring-Daten maßgeschneidert anpassen, sodass jeder Admin nur seine Ressourcen, seine Tasks und seine Daten sehen und wiederherstellen kann. Der Prozess sollte für die jeweiligen User außerhalb des Backup-Teams in wenigen Klicks und ohne Backup-Schulung abzuwickeln sein.

Im alltäglichen Betrieb sollte das Backup-Konzept sich auch an übergelagerte Service-Level-Management-Systeme ankoppeln, über die Generalisten alle möglichen IT-Lösungen per Ampelsystem überwachen.

Physik ausklammern

Das Backup muss außerdem ähnlich wie bei der Virtualisierung die physische Welt im Idealfall völlig ausklammern und vor dem Anwender verbergen. Automatismen bei der Implementierung und im Betrieb helfen dabei. Sie basieren auf komplexen Algorithmen, die die Backup-Soft- und Hardware mit Hilfe von Machine Learning und Künstlicher Intelligenz durch die Erstkonfiguration leiten.

Konfigurieren sich die Backup-Systeme autonom, können sie auch eigenständig entscheiden, wie viel Storage- und CPU-Ressourcen wo benötigt werden. Sie wissen beispielsweise automatisch, ob ein Umschalten auf den Backup-Server in Hamburg für diese Systeme sinnvoll ist oder ob die Latenzzeit dann zu hoch wird.

Einmal im Betrieb, sollten sich die Backup-Plattformen selbst überwachen. So lassen sich kritische Zustände frühzeitig erkennen und Ausfälle vermeiden. Dazu ist es notwendig, dass die Hard- und Software durchgehend Telemetriedaten sammeln, anhand derer sich ihr Zustand abschätzen lässt. Dieser wird dann wieder auf einem Dashboard angezeigt. Das Servicepersonal kann auf Grundlage des Scores proaktiv Maßnahmen ergreifen, wie etwa eine Patch-Installation oder die Durchführung von Vor-Ort-Serviceleistungen.

Werden mehrere Backup-Systeme in einem Verbund eingesetzt, müssen sich regelmäßig über ihren aktuellen Zustand informieren. Wie bei einem guten Team lassen sich so Stärken und Schwächen einzelner Mitglieder berücksichtigen. Analysieren sie gleichzeitig mittels künstlicher Intelligenz auftretende Trends, lassen sich künftige Aufgaben, Lastspitzen und Engpässe entsprechend identifizieren. Dadurch sind schnelle Reaktionen möglich, ohne dass menschliche Interaktionen nötig sind.

Auf den Ernstfall vorbereitet sein

Sollte doch ein Eingriff durch einen IT-Spezialisten nötig sein, so muss dieser sämtliche Systeme über eine einzelne Konsole verwalten können. Am einfachsten lässt sich das mit einem Dashboard mit Ampelsystem lösen. So hat der Mitarbeiter den nötigen Überblick und kann im besten Fall mit nur einem Klick das System wieder in einen betriebsbereiten Zustand bringen. Zudem sollten klare Handlungsanweisungen erfolgen, welche Komponente auszutauschen ist. So sind deutlich weniger hochspezialisierte Experten vonnöten, die zudem mehr Zeit haben, sich auf sehr anspruchsvolle Probleme zu fokussieren.

All die modernen Selbstheilungsprozesse und Autokonfigurationen büßen an Wert ein, wenn das Backup-Konzept einen kritische Workload noch nicht abgedeckt hat. Die meisten Workloads von heute sind sehr dynamisch, verteilt, groß und virtualisiert. Traditionelle Backup-Systeme kommen da schnell an ihre Grenzen. Unternehmen sollten auf Lösungen setzen, die zuerst einmal in der Lage sind, die vielen Workloads überhaupt zu sichern. Darüber hinaus ist es sinnvoll, die bisherige Leistung des Herstellers auf diesem Gebiet zu bewerten. IT-Entscheider sollten vorab unter anderem prüfen, ob die Abdeckung der Plattform vom Drittanbieter zertifiziert worden ist, zu einem früheren Zeitpunkt massive Probleme aufgetreten sind, neben den klassischen Legacy-Plattformen und virtuellen Stacks bereits moderne Workloads wie Mongo DB, Sap HANA, Hadoop oder Open Stack abgedeckt sind und wie schnell der Backup-Hersteller neue Workloads unterstützt.

Mathias Wenig, Senior Manager Technology Sales und Digital Transformation Specialists, DACH bei Veritas Technologies.
Mathias Wenig, Senior Manager Technology Sales und Digital Transformation Specialists, DACH bei Veritas Technologies.
(Bild: Veritas Technologies)

An die Zukunft denken

Das Backup-Konzept muss außerdem massiv skalieren, und zwar horizontal wie vertikal. Denn die Datenmengen werden weiter wachsen und sich geografisch noch stärker auf verschiedenste Infrastrukturen verteilen. Nur wenn das Backup-Konzept an Orten, an denen sich große Datenmengen konzentrieren, leicht skalierbare und hochperformante Backup-Systeme liefern kann, lassen sich diese Mengen in den knappen Zeitfenstern wegschreiben.

Diese Abstraktion des Komplexen hin zu einem einfach administrierbaren, selbstheilenden offenen System, das die Verantwortung für die Daten demokratisch auf mehrere Schultern verteilt, wird es Kunden ermöglichen, ihre Daten in heutigen und künftigen Umgebungen zuverlässig wiederherzustellen.

*Der Autor: Mathias Wenig, Senior Manager Technology Sales und Digital Transformation Specialists, DACH bei Veritas Technologies.

Im Fokus: Backup – Datensicherung für jeden Bedarf

Lesen Sie hier auch unsere weiteren Beiträge zu unserem Schwerpunktthema Im Fokus: Backup – Datensicherung für jeden Bedarf.

(ID:45907026)