Suchen

Kommentar von Bernd Loskamp, Vice President EMEA, Syncsort Deduplizierung alleine reicht nicht

| Autor / Redakteur: Bernd Loskamp / Nico Litzel

Das stetige Datenwachstum stellt immer mehr Unternehmen vor Probleme – Syncsort und NetApp setzen auf eine Lösung, die Backups um bis zu 95 Prozent schneller erstellt.

Firmen zum Thema

Der Autor: Bernd Loskamp ist Vice President EMEA bei Syncsort
Der Autor: Bernd Loskamp ist Vice President EMEA bei Syncsort
( Archiv: Vogel Business Media )

Laut einer Studie des Marktforschungsunternehmens Gartner aus dem Sommer 2010 zählt fast jeder zweite CIO das Datenwachstum zu den wichtigsten Herausforderungen für die IT-Abteilungen in Unternehmen. Fast zwei Drittel der Befragten planen daher, die Kapazitäten in ihren Rechenzentren auszubauen. Denn die Datenmenge nimmt stetig zu – sie wird einer weiteren Gartner-Prognose zufolge innerhalb der nächsten fünf Jahre um 800 Prozent wachsen.

Vier Fünftel dieses Wachstums machen unstrukturierte Daten aus, was das Management noch weiter verkompliziert. Die meisten Unternehmen und Organisationen jedoch nutzen noch immer Technologien, die entwickelt wurden, als Serverfestplatten eine Kapazität von 100 Megabyte hatten. Inzwischen umfasst das Datenvolumen von Backups aber meist mehrere Terabyte pro Tag. Das führt zu einer enormen Belastung für Backup-Prozesse – für den Server, das Netzwerk und das Zielmedium.

Bildergalerie

Servervirtualisierung verkompliziert das Problem

Um dem ungebremsten Datenwust Herr zu werden, müssen vorhandene Speicherkapazitäten effizienter genutzt werden. Im Fokus stehen hier insbesondere Virtualisierungs- und Deduplizierungstechniken. Aber Servervirtualisierung erschwert das Problem. Die Konsolidierung der Arbeitslast auf einen einzigen physischen Server bringt zwar erhebliche Kosteneinsparungen. Sie belastet aber die traditionellen Backup-Systeme, die bislang für ihre Arbeit immer auf überschüssige Systemressourcen zurückgreifen konnten. Das Ergebnis ist, dass die Anzahl der virtuellen Maschinen, die auf einem Server laufen, durch Backups eingeschränkt wird – was den Einspareffekt erheblich mindert.

Deduplizierung reicht nicht aus

Als effiziente Strategie im Kampf gegen die wachsenden Datenmengen erwies sich die Deduplizierung. Die Einführung diskbasierter Deduplizierungstechnologien führte zu einer Reduzierung der Speichervolumina von bis zu 90 Prozent und mehr. Dennoch greift auch die Deduplizierung zu kurz. Denn sie adressiert nur einen Teil des Problems. Sie minimiert zwar die Kosten für Speicherplatz auf Festplatten oder Tapes, doch sie ignoriert alle anderen Faktoren, die beim Transfer von Daten Einfluss nehmen auf die Leistungsfähigkeit des Systems, wie etwa Server-CPU und –Hauptspeicher oder Netzwerk-Input und –Output.

Weiter mit: Ungelöste Probleme

(ID:2052279)