Suchen

Kontroverse - Speicherkosten reduzieren oder kurze Zugriffszeiten Deduplizierung versucht sich am Primärspeicher

Autor / Redakteur: Peter Borchner und Rachel Kanner / Rainer Graefen

Speicheradministratoren werden seit einiger Zeit mit der Idee evangelisiert, die redundanten Daten in ihren Speichern zu reduzieren. Bislang beschränkte sich die Unterweisung in den Tugenden der singulären Datenhaltung auf die sekundären Speicher, also auf Backup und Archivierung, doch jetzt sollen die Anwender auch ihre primären Speichersysteme vom Ballast befreien. Der Lohn ist ihnen gewiss.

Firmen zum Thema

Bislang hat sich Deduplizierung auf Backup und Archivierung beschränkt. Nun sollen Anwender auch ihre primären Speichersysteme vom Ballast befreien.
Bislang hat sich Deduplizierung auf Backup und Archivierung beschränkt. Nun sollen Anwender auch ihre primären Speichersysteme vom Ballast befreien.
( Archiv: Vogel Business Media )

Das Konzept der Daten-Deduplizierung bei Backup und Nearline-Storage hat im Fluge viele Verantwortliche überzeugt. Jetzt versuchen die ersten Storage-Hersteller, auch die letzte Bastion zu schleifen: die Primärspeicher. Das dürfte indes nicht ganz einfach werden. Schließlich geht es hier direkt um die Integrität der Daten und deren Unverletzlichkeit, die zumindest bei den Hash-Verfahren immer wieder mal zur Debatte steht.

Geworben wird für den Einstieg in die Deduplizierung der Primärdaten mit der Kostenersparnis. Zwar sind auf den Primärspeichern viel geringere Deduplizierungsraten erzielbar, „aber man kriegt mehr fürs gleiche Geld, da Tier-1-Disks teurer sind“, erläutert Eric Burgener, Senior Analyst bei US-Marktforscher Taneja Group. Da zudem immer mehr Anwendungen virtualisiert werden, sind wesentlich mehr Daten redundant, als das auf den ersten Blick ersichtlich ist.

Dennoch stellt sich die Frage: Ist die Datenreduktion auf den Primärspeichersystemen eigentlich eine Deduplizierung oder etwas anderes – vielleicht eine gewöhnliche Datenkompression? „Man denke nur mal an Microsoft”, so John Matze, Vizepräsident Business Development bei Hifn, einem Anbieter eines Hardware-basierenden Data Reduction Accelerators. Microsoft bietet auf Dateiebene eine Art generische Deduplizierungsfunktion an. Das sei „eine partielle Deduplizierung, die nur innerhalb des Microsoft-Dateisystems passiert”, mithin „die Daten-Deduplizierung des kleinen Mannes.“

Bei Deduplizierung auf Tier-1 gehen die Ansichten auseinander

Deduplizierung ist sehr gut für statische, redundante Daten geeignet, jedoch weniger für Primary Storage“, behauptet Peter Smails, Vizepräsident Worldwide Marketing bei Storwize. Sein Unternehmen hat 2005 erstmals eine Deduplizierungs-Appliance ausgeliefert.

Das Unternehmen Ocarina Networks hat im September ein Major Release seines Speicheroptimierungsprodukts veröffentlicht. Ocarinas „Extract, Correlate und Optimize”-System (ECO) kombiniert Kompression, Deduplizierung und über 100 dateispezifische Extraktionsalgorithmen. Aber selbst wenn ECO mit einer Art Deduplizierung arbeitet, „funktioniert ihre Optimierungslösungen nicht im geringsten wie eine Dedup-Engine“, so Burgener. „Die Software erzielt eines der höchsten Reduzierungsverhältnisse auf Primärspeichern.“

Laut Carter George, Vizepräsident Produkte bei Ocarina, dreht sich bei der Datenreduzierung auf Primärspeichern alles darum, die Filegröße zu verkleinern. „Die Dateitypen, die das Speicherwachstum anfeuern, sind bereits komprimiert“, erklärt er. „Man kann die gleichen Dateien nicht zweimal mit generischen Algorithmen komprimieren.”

Weiter mit: Kompression vs. Performance

(ID:2017742)