Kommentar von Bernd Loskamp, Vice President EMEA, Syncsort

Deduplizierung alleine reicht nicht

18.07.2011 | Autor / Redakteur: Bernd Loskamp / Nico Litzel

Der Autor: Bernd Loskamp ist Vice President EMEA bei Syncsort
Der Autor: Bernd Loskamp ist Vice President EMEA bei Syncsort

Das stetige Datenwachstum stellt immer mehr Unternehmen vor Probleme – Syncsort und NetApp setzen auf eine Lösung, die Backups um bis zu 95 Prozent schneller erstellt.

Laut einer Studie des Marktforschungsunternehmens Gartner aus dem Sommer 2010 zählt fast jeder zweite CIO das Datenwachstum zu den wichtigsten Herausforderungen für die IT-Abteilungen in Unternehmen. Fast zwei Drittel der Befragten planen daher, die Kapazitäten in ihren Rechenzentren auszubauen. Denn die Datenmenge nimmt stetig zu – sie wird einer weiteren Gartner-Prognose zufolge innerhalb der nächsten fünf Jahre um 800 Prozent wachsen.

Vier Fünftel dieses Wachstums machen unstrukturierte Daten aus, was das Management noch weiter verkompliziert. Die meisten Unternehmen und Organisationen jedoch nutzen noch immer Technologien, die entwickelt wurden, als Serverfestplatten eine Kapazität von 100 Megabyte hatten. Inzwischen umfasst das Datenvolumen von Backups aber meist mehrere Terabyte pro Tag. Das führt zu einer enormen Belastung für Backup-Prozesse – für den Server, das Netzwerk und das Zielmedium.

Servervirtualisierung verkompliziert das Problem

Um dem ungebremsten Datenwust Herr zu werden, müssen vorhandene Speicherkapazitäten effizienter genutzt werden. Im Fokus stehen hier insbesondere Virtualisierungs- und Deduplizierungstechniken. Aber Servervirtualisierung erschwert das Problem. Die Konsolidierung der Arbeitslast auf einen einzigen physischen Server bringt zwar erhebliche Kosteneinsparungen. Sie belastet aber die traditionellen Backup-Systeme, die bislang für ihre Arbeit immer auf überschüssige Systemressourcen zurückgreifen konnten. Das Ergebnis ist, dass die Anzahl der virtuellen Maschinen, die auf einem Server laufen, durch Backups eingeschränkt wird – was den Einspareffekt erheblich mindert.

Deduplizierung reicht nicht aus

Als effiziente Strategie im Kampf gegen die wachsenden Datenmengen erwies sich die Deduplizierung. Die Einführung diskbasierter Deduplizierungstechnologien führte zu einer Reduzierung der Speichervolumina von bis zu 90 Prozent und mehr. Dennoch greift auch die Deduplizierung zu kurz. Denn sie adressiert nur einen Teil des Problems. Sie minimiert zwar die Kosten für Speicherplatz auf Festplatten oder Tapes, doch sie ignoriert alle anderen Faktoren, die beim Transfer von Daten Einfluss nehmen auf die Leistungsfähigkeit des Systems, wie etwa Server-CPU und –Hauptspeicher oder Netzwerk-Input und –Output.

Weiter mit: Ungelöste Probleme

Inhalt des Artikels:

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 2052279 / Speicher-Lösungen Mittelstand)