Mobile-Menu

Zufriedenstellende Deduplizierungsraten bei der Datensicherung beanspruchen viele Ressourcen

Eine gute Backup-Strategie lässt Deduplizierung alt aussehen

Seite: 3/3

Anbieter zum Thema

IBM Tivoli mit kostenloser Dedup-Option

IBM bietet aktuell neben der 2008 akquirierten Diligent Protectier-Lösung (IBM 7650) mit dem Tivoli Storage Manager V6.1 ab Ende März 2009 die Möglichkeit, kostenlos Deduplizierung in der Datensicherungsanwendung direkt zu benutzen. Um dem Anspruch von differenzierter Datenbehandlung gerecht zu werden, wurde dieses Verfahren als optionales Attribut für den TSM Disk-Storagepool implementiert.

TSM verwendet ein asynchrones Verfahren, das die Datenteile nach dem Backup auf dem TSM Diskpool untersucht und dann die redundanten Teilstücke eliminiert. Das Verfahren hat somit keinen Einfluss auf den Durchsatz bei der Datensicherung und ist über die bekannte TSM Regelstruktur steuerbar, um elegible Clientdaten mit Redundanzerkennung und andere Daten ohne Deduplizierung selektiv speichern zu können. Zukünftig wird TSM auch zusätzlich noch Client-Deduplication wahlfrei anbieten.

Wofür eignet sich Deduplizierung wirklich?

Jedem Verwender von Deduplizierung muss klar sein, dass diese Verfahren zusätzliche Leistung in der Backup-Infrastruktur benötigen und die Rekonstruktion verlangsamen. In jedem Fall eignet sich Deduplizierung nur für solche Konfigurationen, wo die Sicherungsdaten eine angemessene Zeit auf Plattenspeicher verbleiben, da vor der Migration auf Tape-Technologie diese Fragmente als ganze Dateien reorganisiert werden, um ein Mount-Chaos beim Restore zu vermeiden.

Es mag auf den ersten Blick attraktiv sein, Ressourcen von Sicherungs- oder Archivdaten nur auf Plattenspeicher abzubilden und mit Reduktionstechniken die Speicheranforderungen zu verkleinern, aber es sei die Frage gestattet, ob es unter ökonomischen und ökologischen Gesichtspunkten wirklich sinnvoll ist, inaktive Daten über Jahre auf Disk „Karussell“ fahren zu lassen, statt sie auf preiswerte Datenträger wie Magnetband statisch abzulegen.

Deduplizierung ist kein Allheilmittel

Damit IT-Verantwortliche die richtigen Entscheidungen treffen, ist es notwendig, sich mit den technischen Grundlagen von Datenreduzierungstechniken vertraut zu machen und dann die Wahl der Lösung mit ihrem spezifischen Umfeld abzugleichen.

Bei der Entscheidung muss berücksichtigt werden, dass Deduplizierung wie auch Datenkompression und Verschlüsselung Verfahren sind, die Leistung kosten und zusätzliche Hardware-/Software-Komponenten in den Lösungseinsatz einbringen.

Diese können fehlerbehaftet sein mit gravierenden Folgen von Datenverlust, falls die Meta-Daten oder Basis-Fragmente durch Hardware-Fehler verloren gehen. Da es heute noch keine global standardisierten Deduplizierungsverfahren gibt und jeder Hersteller die Implementierung anders realisiert, steigt die Abhängigkeit vom jeweiligen Anbieter und dessen Kooperationspartnern, was den späteren Wechsel des Anbieters aufwendig oder gar unmöglich macht.

Auch stellt sich die Frage, ob hohe erreichte Deduplizierungsfaktoren nicht ein Indiz sind für das notwendige Überdenken der gelebten Datenhaltungsstrategien. Deduplizierung ist eine valide Erweiterung zur Datensicherung, aber kein Allheilmittel für den allgegenwärtigen Kampf mit steigenden Datenmengen.

(ID:2021207)