Suchen

Auszug aus dem IBM Storage System Kompendium

2006 bis 2010 – die Epoche der Server-basierenden Speichersysteme und der Speichervirtualisierung, Teil 8

Seite: 3/3

Firma zum Thema

Grundlegende Fragen bei der Kombination von Disk und Tape

Wird mit einer Kombinationslösung aus Platte und Band gearbeitet, stellen sich die Fragen, wie groß muss das vorgeschaltete Plattensystem von der Kapazität sein, wie muss die Tape Library dahinter konfiguriert werden und wie implementiert man die Migration von Platte auf Band sinnvoll? Individuelle Sizings der vorhandenen Umgebung und der benötigten Anforderungen sind für eine sinnvolle Lösung notwendig!

Vorsicht – begrenzte Haltbakeit!

Es gibt VTLs auf dem Markt, die keine Tape-Anbindung haben. Da stellt sich diese Frage natürlich nicht! Allerdings ist von solchen Konzeptionen dringend abzuraten, da es in eine technologische Einbahnstraße führt, aus der man nur wieder mit sehr viel Aufwand und Kosten herauskommt. VTLs ohne Tape-Anbindung mit sehr günstigen ATA- oder SATA-Platten müssen in der Regel komplett nach drei Jahren aus Sicherheitsgründen ausgetauscht werden, um Plattenausfälle und Datenverlust zu vermeiden. Sind hier sehr große Kapazitäten betroffen, kommt es in der Regel zu einer regelrechten Kostenexplosion!

Beim Einsatz von VTLs und Diskbuffern kann eine effektivere Nutzung des Plattenpuffers durch De-Duplizierungsverfahren eine große Menge an sonst benötigten Plattenplatz einsparen, weil nur noch Datenblöcke einmal abgespeichert werden und Duplikate vermieden werden. Die Einsparung ist dabei direkt vom erzielten De-Duplizierungsfaktor abhängig. Es gibt verschiedene De-Duplizierungsverfahren von unterschiedlichen Anbietern. Die wichtigste Anforderung an ein De-Duplizierungsverfahren ist die Sicherstellung einer 100-prozentigen Datenintegrität neben skalierbarer Leistungsfähigkeit. Nur Verfahren mit 100-prozentiger Datenintegrität stellen eine sichere Restore-Möglichkeit zur Verfügung, denn Backup macht man wegen des Restores!

Die erzielten De-Duplizierungsfaktoren sind von vielen Gegebenheiten abhängig: Welche Backup-Software ist im Einsatz, wie wird die Sicherung durchgeführt (z. B. immer inkrementell oder jede Woche ein Full Backup etc.) und wie lange soll die Retentionperiode sein, in der die Daten im Plattenpuffer gespeichert bleiben (siehe auch unter Daten-De-Duplizierung)?

Sicherung über das LAN, LAN-free, über das SAN oder beides?

Welches Konzept bezüglich der Anforderungen Leistung, Sicherheit, Kosten, Haltbarkeit und einfache Erweiterbarkeit die beste Effektivität bietet, ist von der vorhandenen Infrastruktur abhängig und ob die Daten klassisch über das LAN oder LAN-free über das SAN oder beides gesichert werden. In den meisten Fällen bieten sich Kombinationslösungen von Platte und Band an, um die Stärken beider Technologien entsprechend für einen effektiven Backup und Restore zu nutzen.

Wichtig ist, dass Daten-Backup sicher und zuverlässig ist und die Wiederherstellung der Daten in jedem Fall gewährleistet wird. Das gilt für unvorhergesehene Feher wie z. B. Disaster (Naturkatastrophen, Hochwasser, technische Fehler, Disk-Crash), aber auch für menschliche Fehler (versehentliches Löschen von Daten, falsches Bearbeiten von Dateien) und Application Errors (Virus, Fehler in der Software).

Es ist also unter anderem wichtig, dass Datenkopien an verschiedenen Lokationen, auf unterschiedlichen Medien und mit unterschiedlichen Tools bzw. Software und von verschiedenen Verantwortlichen erzeugt werden. Snaps in derselben Einheit bieten alleine keinen Schutz, Spiegelung mit derselben Software ebenfalls nicht!

Der Anspruch an den Sicherheitsgrad sowie die Wiederherstellungszeit (Recovery Time Objective) spielen für die Auswahl der Komponenten respektive der Backup-Strategie ebenso eine entscheidende Rolle.

Dieser Artikel ist ein Auszug aus dem IBM-System-Storage-Kompendium. Hier finden Sie das vollständige Kompendium in Form eines Whitepapers.

(ID:2044024)