Sicher verwahrte Daten Auch Container benötigen ein Backup

Von Sascha Oehl*

Anbieter zum Thema

Container sind flexible und dynamische IT-Anwendungen – auch sie sollten per Backup gesichert sein. Worauf es dabei ankommt, lesen Sie in diesem Beitrag.

Datensicherung für Container – warum und wie?
Datensicherung für Container – warum und wie?
(Bild: gemeinfrei / Pixabay)

Kaum eine IT-Technologie hat das Cloud Computing so vorangebracht wie die Virtualisierung. Dank ihr lassen sich IT-Dienste schnell aufsetzen und stark skalieren, durch sie wird das Geschäftsmodell „Cloud“ erst tragfähig. Das Container-Konzept entwickelt die Idee der virtuellen Maschinen an entscheidender Stelle weiter. Ein Container ist eine kleine virtuelle Einheiten, in der Micro-Services isoliert ausgeführt werden. Dafür enthalten Container effiziente schlanke Minibetriebssysteme und ein rudimentäres Set an Anwendungen, um die gewünschte Aufgabe autonom zu erledigen.

Container enthalten nur all jene Daten, die sie brauchen, um ihren Dienst auszuführen. Dazu gehören schlanke Betriebssystemkomponenten wie Libraries und Binaries, mit denen sie mit dem Betriebssystem des Hosts kommunizieren können. Anders als virtuelle Maschinen, die den gesamten Host und seine Ressourcen widerspiegeln, ist der Container ein Leichtgewicht. Zu den etabliertesten Technologien zählt übrigens Docker.

Geringer Speicherbedarf

Container liefern somit die Grundbausteine, um Cloud-fähige Anwendungen schnell und skalierbar auf Basis von Micro-Services zusammenzusetzen. Eine große Anwendung besteht dann aus mehreren voneinander unabhängigen Komponenten, die auf klar definierte Geschäftsfunktionen ausgerichtet sind. Dafür brauchen Container wenig CPU-Ressourcen und Arbeitsspeicher: Während virtuelle Maschinen mehrere Gigabyte groß werden können, sind Container meist nicht größer als 100 Megabyte.

Für die Portabilität ist der geringe Speicherbedarf von großem Vorteil. Container lassen sich nach Belieben zwischen verschiedenen Systemen verschieben, etwa aus einer Entwicklungsumgebung auf Produktiv-Server. Auch spielt es kaum eine Rolle, ob der Container in einer On-Premises- oder einer Cloud-Umgebung läuft.

Zugleich sind Container hochskalierbar. Sobald beispielsweise eine Webumgebung mehr Anfragen bewältigen muss, der Datenverkehr ansteigt und neue Instanzen für deren Verarbeitung benötigt werden, können Container in kurzer Zeit gestartet und später wieder gestoppt werden. Ausgefeilte Orchestrierungslösungen verwalten die Menge der Container im Hintergrund. Zu den bekanntesten solcher Lösungen gehören die Open-Source-Angebote Docker und Kubernetes.

Der Docker-Client von NetBackup sieht den gesamten Anwendungspfad inklusive der gemounteten Storage-Systeme.
Der Docker-Client von NetBackup sieht den gesamten Anwendungspfad inklusive der gemounteten Storage-Systeme.
(Bild: Veritas Technologies)

Dauerhafter Erfolg wirft Fragen auf

Die ursprüngliche Idee bei Containern war es, sie schnell und flexibel zu erschaffen, und sobald sie ihre Aufgabe erledigt haben, sollten sie ebenso schnell wieder gelöscht werden. In der Praxis zeigte sich jedoch, dass Container auch wertvolle Dienste leisten, wenn sie dauerhaft implementiert werden. So kommen sie heute bei Anwendungen rund um die Datenanalyse, Künstliche Intelligenz und Maschinenlernen zum Einsatz.

Das führt allerdings zu Fragen der Datensicherheit von Containern. Wie soll eine komplexe auf Containern basierende Anwendung am besten per Backup gesichert werden? Die Container-Lösungen selbst liefern eine Reihe von klugen Redundanzfunktionen, damit sie den Ausfall von Containern autonom überbrücken können. Sie können die Microdienste beispielsweise direkt aus dem Basis-Image eines Containers oder den Konfigurationsdaten rekonstruieren.

Allerdings müssen diese Elemente zwingend per Backup gesichert sein, denn ohne sie lassen sich die Container und die Anwendung nicht neu starten. Wer die Anwendung per Disaster Recovery in einer anderen Lokation, sei es in der Cloud oder On-Premises, wiederherstellen will, muss ebenfalls auf das Container-Image und die Konfiguration zugreifen können.

Die Sicherung muss dazu also einerseits das Repository umfassen, um sicherzustellen, dass eigene Container-Images immer wieder bereitstehen. Sie muss zudem die Persistent Data sichern, also all jene Daten, die über den Lebenszyklus hinaus bestehen bleiben sollen.

Der Client-Container von NetBackup unterstützt ebenfalls den Dump-and-Sweep-Ansatz.
Der Client-Container von NetBackup unterstützt ebenfalls den Dump-and-Sweep-Ansatz.
(Bild: Veritas Technologies)

Zertifizierung ist Pflicht

Eine Tatsache hat sich in den vergangenen 25 Jahren stets bewahrheitet: Wer die Daten einer Anwendung sichern will, muss dem Charakter der Anwendung zu hundert Prozent gerecht werden. Eine Zertifizierung des Plattformanbieters beweist, dass die Backup-Lösung die jeweilige Plattformen versteht und sich nahtlos integriert. Erst dann ist auch garantiert, dass Anwendung und Backup eng gekoppelt sind, sich Daten erfolgreich wiederherstellen lassen und die Anwendung die Daten auch akzeptiert.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Data-Storage und -Management

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Lösungen wie Veritas NetBackup sind für Docker zertifiziert und können solche komplexen Container-Architekturen selbständig sichern. Veritas entwickelte hierzu einen containerisierten NetBackup-Client, der sich dazu nutzen lässt, persistente Anwendungsdaten in einer dynamischen Container-Umgebung zu sichern. Die Zertifizierung für die Docker-Enterprise-Plattform gewährleistet dabei eine reibungslose Installation, inklusive Support durch Docker und Veritas für Produktionsumgebungen. Dabei lassen sich auch physische und virtuelle Umgebungen und Multi-Cloud-Szenarien im unternehmensweiten Einsatz sichern. So werden Workloads wie Hadoop, Nutanix, MySQL, PostgreSQL, MariaDB, SQLite, HBase und MongoDB unterstützt.

Sascha Oehl, Director Technical Sales, DACH bei Veritas Technologies.
Sascha Oehl, Director Technical Sales, DACH bei Veritas Technologies.
(Bild: (c) www.MarcFippel.de)

Über eine einfach bedienbare Benutzeroberfläche lassen sich dabei auch in heterogenen, komplexen Architekturen Backup- und Wiederherstellungsprozesse anstoßen und verwalten. Wer diesen Weg wählt und auf eine standardisierte Backup-Lösung setzt, kann damit seine Standarddaten und moderne Workloads wie Container aus einer Hand managen.

*Der Autor: Sascha Oehl, Director Technical Sales, DACH bei Veritas Technologies

(ID:46528430)