Suchen

Signierte Chunks für höchste Datenintegrität Deduplizierung hält Einzug in den Tivoli Storage Manager

Autor / Redakteur: Klemens Poschke, IBM / Nico Litzel

IBM hat beim Einstieg in die „Entdoppelung“ der Backup-Daten lange gezögert. Zuerst wollte das Unternehmen selbst etwas entwickeln. Diese Anstrengung kumulierte dann im Kauf von Diligent. Acht Monate nach der Übernahme sind die ersten Implementierungsergebnisse im Tivoli Storage Manager angelangt. Weitere Ankündigungen und Produkte über die nun eigene Deduplizierungstechnik werden wohl im Laufe des Jahres folgen.

Firmen zum Thema

Version 6.1 des Tivoli Storage Managers bietet Deduplizierung auf Basis der TSM-Disk-Storagepools. Das Verfahren arbeitet ohne Beeinträchtigung der Backup-Performance als nachgelagerter Prozess.
Version 6.1 des Tivoli Storage Managers bietet Deduplizierung auf Basis der TSM-Disk-Storagepools. Das Verfahren arbeitet ohne Beeinträchtigung der Backup-Performance als nachgelagerter Prozess.
( Archiv: Vogel Business Media )

Die Datenmenge im Unternehmen steigt ungebremst – das verschlingt nicht nur viel Festplattenplatz, sondern droht immer wieder das Backup-Zeitfenster zu sprengen. Ein intelligentes Verfahren, Disk-Kapazität effizienter zu nutzen, ist die sogenannte Deduplizierung, die dafür sorgt, dass identische Datenblöcke nur einmal gesichert werden.

Dadurch wird das Datenvolumen reduziert, ohne dass Informationen verloren gehen. Auch der IBM Tivoli Storage Manager (TSM) – seit knapp 20 Jahren eine Standardanwendung im Bereich unternehmensweite Datensicherung und Archiv-Backend – bietet in seiner neuen Version kostenlos die Möglichkeit, beliebige Daten auf sich wiederholende Datenteile hin zu untersuchen und bei Übereinstimmung die Redundanzen zu eliminieren.

Daten-Deduplizierung – neuer Wein in alten Schläuchen?

Deduplizierung gehört zu den Datenreduktionsverfahren, die helfen sollen, Ressourcen effizienter zu nutzen. Außer der Deduplizierung zählt hierzu auch die Software/Tape-Komprimierung, bei der die Netzwerkbandbreite effizienter genutzt oder eine bessere Auslastung der Bandkapazität gewährleistet wird.

Ein weiteres Mittel, die Datenmenge zu reduzieren, ist das Single-Instance-Store-Verfahren (SIS), das in Anwendungsumgebungen verwendet wird, in denen generell viele redundante Dateien entstehen, wie etwa bei der Backup-Methode oder bei Anhängen in E-Mail-Datenbanken. SIS-Verfahren werden heute bei allen marktüblichen E-Mail-Archiv-Lösungen als Standardfunktion angeboten. SIS untersucht immer ganze Dateien oder Objekte nach Redundanzen. Der Tivoli Storage Manager nutzt eine Abwandlung von SIS in seinem „Incremental Forever“-Sicherungsverfahren.

Die Deduplizierung geht einen anderen Weg

Anders bei der Deduplizierung: Hier werden die Dateien in Segmente („Chunks“, „Extents“) aufgeteilt und die Segmente in einem Prozess von Signaturbildung miteinander verglichen. Das kann entweder vor dem Transport der Daten vom Client über das Netzwerk („source deduplication“) oder als Folgeprozess auf dem Zielsystem („target deduplication“) geschehen.

weiter mit: Jede Datei wird wieder aus gespeicherten Einzelstücken zusammengesetzt

(ID:2018682)