Anbieter zum Thema
Kapitel 5: Backup-Medien in Vergangenheit und Gegenwart
Unternehmen mussten ihre Datenschätze auch schon vor 50 Jahren absichern, lange bevor es die Cloud gab und jemand an Virtualisierung, Hyperkonvergenz (HCI) oder ein Software-basiertes Rechenzentrum dachte. Damals war das Tape das Mittel der Wahl, danach die Festplatte.
Tape
Bandbibliotheken stammen eigentlich aus der Mainframe-Welt, in der Aufträge in Batches ausgeführt werden. Beim Backup auf tape (das heißt: „Magnetband“) werden regelmäßig Daten von einem primären Speichergerät auf eine Bandkassette kopiert. Diese befinden sich in der Regel in feuersicheren Zellen, obwohl vorzugsweise „kalte“ Daten darauf vorgehalten werden.
Bandsicherungen können manuell durchgeführt oder so programmiert werden, dass sie automatisch mit entsprechender Software erfolgen. In alten Filmen sieht man gelegentlich noch riesige Maschinen mit diesen Bändern – aber auch heute noch setzt beispielsweise IBM auf dieses Verfahren, insbesondere bei Daten, deren Wiederherstellung nicht so sehr eilt. Tape dient hier vor allem der Archivierung besagter kalter Daten.
Denn Tape eignet sich auch und nicht zuletzt im Hinblick auf die Betriebskosten hervorragend zum Ablegen unstrukturierter Daten. Und kann mittlerweile auch schnell: Die Datenübertragungsraten für Tape bewegen sich mit Schreibraten von mindestens 300 Megabyte pro Sekunde auf Augenhöhe mit Flash-Laufwerken und sind schneller als bei Festplatten! Neu sind Konzepte wie Flash-to-Band, Disk-to-Disk-to-Band oder andere Datenpufferstrategien rund um die Cloud, die das kostengünstige Tape fit machen für neue Systemumgebungen.
Festplatten und Network Attached Storage
Die Festplatte war über Jahrzehnte State of the Art für Storage; in PCs und Rechenzentren wurden darauf alle denkbaren Daten abgelegt. Unternehmen nutzen heute noch umfangreich Netzwerkfestplatten oder Speicherplatz-Server, die mithilfe dateibasierter Netzwerkprotokolle wie SMB/CIFS und NFS oder blockbasierter Netzwerkprotokolle wie iSCSI und FCoE an das Netzwerk angeschlossen werden. Damit sind wir bei Network Attached Storage (NAS) gelandet, das gerne für das Backup herangezogen wird. Dabei kommen spezielle Appliances mit eigener CPU, Arbeitsspeicher und Platz für mehrere Festplatten zum Einsatz.
Der Nachteil der genannten Medien ist jedoch – ohne Berücksichtigung der neuesten Anschlusstechnologien inklusive Linear-Tape-Open-Technologie (LTO) und IBMs Linear Tape File System (LTFS) – ihr langes Backup-Fenster, das die Wiederherstellung und damit die geschäftliche Produktivität ausbremst. Für Unternehmen kommt es oft billiger, auf schnellere neue Medien zu setzen, vorrangig Software-basiert.
Software-basiertes Backup
Mittelfristig erwarten viele Analysten, dass Festplatten der Vergangenheit angehören werden; Software-basierte Hochleistungslaufwerke könnten sie auch für das Backup verdrängen. Das ist nicht zuletzt neuesten Technologien wie Non-Volatile Memory Express (NVMe) sowie NVMe over Fabric geschuldet. Von Storage-Insider wurde die erst 2011 veröffentlichte Schnittstelle als „Protokollturbolader“ bezeichnet, der auf der Protokollebene den Prozessor und den Massenspeicher ersetzt und die Daten näher an den Prozessor rückt, was zu geringer Latenz und hohen IOPS führt.
Das macht Software-basierte Speicherbausteine gerade für das Backup interessant; auch bieten sie die Möglichkeit, Backups zeitsparender zu automatisieren, als dies bislang möglich war. Software-basierte Lösungen haben diese Automatisierungsfunktionen in der Regel schon eingebaut oder lassen sich leicht aufrüsten.
Die verschiedenen Entwicklungsstränge Software-basierten Speicherns tragen Namen wie „All-Flash-Array“ (AFA), „Software-Defined Storage“ (SDS), „Hyperconverged Infrastructure“ (HCI) oder „Hybrid Storage“ (HS):
All-Flash-Arrays (AFA)
All-Flash-Arrays entwickeln sich gerade zum neuen Storage-Standard, nicht zuletzt aufgrund ihrer geringen Latenzen, einer hohen IOPS-Rate und einer hohen Speicherdichte – bei geringem Stromverbrauch. In ihnen kommen statt Festplatten Flash-Speicher zum Einsatz, so dass ein AFA immer noch wie ein SAN oder ein NAS funktioniert, nur schneller. In der neusten Generation von Flash-Speicherlösungen wurde die Infrastruktur speziell auf die Flash-Bausteine zugeschnitten, was sie zu „echten“ All-Flash-Arrays macht.
Laut der Crisp-Studie „Digital Infrastructure Innovation 2020 – Das Data Center als Innovationsbeschleuniger – Storage-Strategien für das Rechenzentrum der Zukunft“ befindet sich noch ein guter Teil der Unternehmen gerade in der Phase der Evaluierung und Einführung von Flash-basierten Storage-Systemen. Das Analystenhaus erklärte AFAs wegen ihrer Innovationssprünge und dem stetigen Preisverfall „zum neuen De-facto-Storage-Standard für den Unternehmenseinsatz“. Selbst die im Vergleich zu Festplatten geringe Kapazität kann sie nicht stoppen: AFAs erreichen derzeit etwa 100 Terabyte (TB), Standard-Arrays operieren dagegen im Petabyte-Bereich. AFAs werden daher insbesondere für geschwindigkeitssensible Daten herangezogen.
Software-Defined Storage
SDS-Produkte sind flexibel; sie können auf dem Server-Betriebssystem oder in einer virtuellen Maschine (VM) laufen, in einem Server-Hypervisor-Kernel, On-Premises oder in einer öffentlichen Cloud. Andere SDS-Produkte können in einem Container ausgeführt werden. Der Clou von SDS liegt in der Abkoppelung der Software von der darunter liegenden Hardware, die flexibel und kostengünstig hinzugefügt werden kann. Das Management erfolgt vergleichsweise unkompliziert über Software-Konsolen. Inline-Deduplizierung und verlustfreie Kompression sind damit kein Problem.
Die in der Regel Open-Source-basierte SDS-Software wie Ceph, FreeNAS, Gluster oder auch OpenStack Swift umfasst Richtlinien für Datendeduplizierung, Replikation, Thin Provisioning, Snapshots und Sicherung und setzt diese durch.
Converged und Hyper-Converged Infrastructures (HCI)
(Hyper-)konvergente Infrastrukturen sind stets mit Standard-Hardware verbunden. Converged Infrastructures vereinen Server, Datenspeichergeräte, Netzwerkfunktionen, Virtualisierung, Management-Software, Orchestrierung und Anwendungen; hyperkonvergente Infrastrukturen kommen in skalierbaren Appliances inklusive Hypervisor.
HCI sind vergleichsweise kostengünstig und macht komplexe NAS/SAN-Strukturen überflüssig. Flash-basierte Speicher lassen sich direkt ansprechen, was zu einer hohen I/O-Performance und Skalierbarkeit führt. IT-Teams können damit ohne Abstriche bei der IT-Sicherheit eine skalierbare Cloud-Umgebung für das Backup aufbauen. Was uns zur Cloud als Backup-Option bringt:
Cloud als Backup
Die Cloud gilt aktuell als die Krone der IT-Entwicklung; sie zum Zwecke des Backups zu nutzen, ist folgerichtig, zumal damit die zu sichernden Daten ganz automatisch außer Haus abgelegt werden. Außerdem wird keine eigene Hardware benötigt, die zudem aufbewahrt, versorgt, gekühlt und gewartet werden müsste. Die Skalierung ist gar kein Problem mehr. (Wir betrachten das Backup in der Cloud genau wie die Möglichkeit der Hybridkonfiguration ausführlich in einem eigenen Artikel, der im Juni veröffentlicht wird.)
(ID:46404247)