Suchen

Datendeduplizierung ist kein Privileg von Storage-Systemen Per Deduplizierung die Datenflut „zähmen“

Autor / Redakteur: Bernhard Lück / Dipl.-Ing. (FH) Andreas Donner

„Deduplizierung rückt in den Mittelpunkt des Interesses von IT-Fachleuten“, sagt Jeff Aaron, Vice President Marketing bei Silver Peak Systems. „Ein Grund dafür ist, dass sich die Datenbestände drastisch vermehren und dadurch die Kosten für deren Speicherung steigen.“

Firmen zum Thema

Für Silver-Peak-Manager Jeff Aaron sind drastisch steigende Datenbestände und die Kosten für deren Speicherung für das wachsende Interesse an Deduplizierung verantwortlich.
Für Silver-Peak-Manager Jeff Aaron sind drastisch steigende Datenbestände und die Kosten für deren Speicherung für das wachsende Interesse an Deduplizierung verantwortlich.
(Bild: Silver Peak Systems)

Nach Angaben des Marktforschungsinstituts IDC wurden 2011 weltweit 1,5 Zettabyte an elektronischen Informationen erzeugt und gespeichert. In sieben Jahren sollen es laut IDC 50 Mal so viel sein. IT-Manager suchen deshalb nach Wegen, um diese Datenflut zu „zähmen“.

Ein Mittel besteht darin, mehrfach vorhandene Informationen auf Datei-, Block- oder Byte-Ebene zu deduplizieren. Dabei werden die Originaldaten durch Zeiger (Pointer) ersetzt. Das Resultat: Das Datenvolumen lässt sich je nach Art der Informationen bis um dem Faktor 20 reduzieren. „Bei Virtual Machines, die auf denselben Templates beruhen, sind in der Praxis sogar Werte von bis zu 1:50 möglich“, so Jeff Aaron.

Deduplizierung bei Datentransport über Weitverkehrsleitungen

Wie Silver Peak informiert, gehen Storage-Systeme verstärkt dazu über, Informationen „live“ auf doppelte Dateien hin zu untersuchen. Das können E-Mails mit ähnlichen Inhalten oder mit identischen Attachments sein, aber auch CAD/CAM-Dateien, bei denen häufig nur Details geändert werden.

Deduplizierung sei jedoch keine Technologie, die alleine Storage- und Backup-Systemen vorbehalten ist. Mindestens ebenso wichtig sei es, Datenbestände zu reduzieren, bevor sie über eine Weitverkehrsstrecke (WAN) transportiert werden. „Selbst in hoch entwickelten Ländern wie Deutschland stehen nicht an jedem Standort Breitbandverbindungen zur Verfügung“, gibt Aaron zu bedenken. „Und selbst wenn dies der Fall ist, bedeutet mehr Bandbreite auch höhere Kosten.“

WAN-Deduplizierung ist Grundlage für neue Anwendungsfelder

Daher würden WAN-Optimierungslösungen wie die Systeme von Silver Peak Systems ebenfalls Deduplizierungstechnologien einsetzen, beispielsweise das von Silver Peak entwickelte „Network Memory“-Verfahren.

Hiermit sollen sich die Datenmengen, die über eine Weitverkehrstrecke transportiert werden, teilweise um mehr als 90 Prozent verringern lassen. Diese Reduktion der Informationsmenge sei die Grundlage für Anwendungen, die an Bedeutung gewinnen, etwa das Replizieren von Daten zwischen mehreren Rechenzentren oder zwischen Außenstellen und Firmenzentrale, der Zugriff auf virtualisierte Desktops und die Analyse von großen Datenmengen, Stichwort Big Data. Auch Cloud Computing sei ohne Deduplication ein kostspieliges Vergnügen.

(ID:37644170)