Suchen

Zufriedenstellende Deduplizierungsraten bei der Datensicherung beanspruchen viele Ressourcen Eine gute Backup-Strategie lässt Deduplizierung alt aussehen

| Autor / Redakteur: Klemens Poschke, IT Architect IBM Software Group / Rainer Graefen

IT Manager finden den Gedanken faszinierend, die Anforderungen für die Speicher-Ressourcen durch die Analyse und Eliminierung von Datenredundanzen zu reduzieren. Doch die Realität schlägt dem Wunschdenken des Verkäufers häufig ein Schnippchen.

Firmen zum Thema

Manchmal hat man mehr Platz als man glaubt.
Manchmal hat man mehr Platz als man glaubt.
( Archiv: Vogel Business Media )

Bei der Werbung für Deduplizierungslösungen wird oftmals nicht erwähnt, dass sie nur unter Berücksichtigung bestimmter Voraussetzungen die gewünschte Ressourcenreduzierung bringen. Sonst würde es nicht Situationen geben wie aktuell geschehen:

Ein Versicherungsunternehmen glaubte den Versprechungen seines Anbieters, der eine Hardware-Backup-Infrastruktur mit Disk und Virtual Tape Library anbot und bei der Ressourcenplanung einen Deduplizierungsfaktor von 12:1 zugrunde legte.

Die Realität zeigte jedoch, dass das Verfahren bei der spezifischen Datenstruktur des Kunden zusammen mit der Sicherungsmethodik „forever incremental“ nur den Faktor 4:1 erreichte. Damit waren die installierten VTL-Ressourcen um 2/3 zu klein dimensioniert. Ärger zwischen den Geschäftspartnern und Nachinvestitionen war die zwangsläufige Folge. Damit steht die Frage im Raum, wie stark lassen sich Datenbestände eigentlich reduzieren?

Welche Datenreduzierungsverfahren gibt es?

Es gibt eine Reihe von Datenreduzierungsverfahren bei Backup-Anwendungen. Manche sind neu, andere schon lange im Markt etabliert:

  • incremental forever – Die tägliche Datensicherung berücksichtigt nur neue oder geänderte Dateien und verwaltet den Datenbestand in einer Meta-Datenbank, die sicherstellt, dass die gewünschte Rekonstruktionstiefe garantiert wird. Voll-Sicherungen sind nicht nötig, es gibt somit keine redundanten Daten und die Sicherungszeiten und notwendigen Bandbreiten reduzieren sich im Vergleich zu traditionellen Sicherungsverfahren.
  • compression – Ein Kompressionsalgorithmus wird vor dem Transfer der Daten zum Sicherungsserver auf jedes Objekt angewendet. Auch Tape-Technologie arbeitet schon lange mit integrierter Kompression.
  • single instance store SIS – Ein Reduktionsverfahren, das eine große Menge an vergleichbaren Daten voraussetzt. Bei SIS werden ganze Dateien oder Objekte miteinander verglichen und bei Übereinstimmung wird nur eine Instanz gespeichert, die anderen Instanzen werden zugunsten von Referenzeinträgen nicht gespeichert. Typischer Anwendungsfall für SIS-Verfahren sind E-Mail Archivlösungen, in denen automatisch redundante Anhänge eliminiert werden.
  • data deduplication – Ebenfalls ein Reduktionsverfahren, dessen Effizienz steigt, je mehr vergleichbare Instanzen vorhanden sind. Im Gegensatz zu SIS werden hier nicht ganze Dateien oder Objekte untersucht, sondern nur Teile davon (blocks, extents, chunks). Die notwendige Referenzierung der vollständigen Originaldateien wird in einer Meta-Datenbank sichergestellt.

weiter mit: Welche Deduplizierungsverfahren gibt es?

(ID:2021207)