Anbieter zum Thema
Ungelöste Probleme
Für die möglichst effiziente Speicherung von großen Datenmengen und eine optimale Performance sollten Anwender aber sämtliche Faktoren berücksichtigen, die bei der Übertragung von Daten von einer Quelle auf ein Zielspeichermedium eine Rolle spielen – vom Prozessor über die Speichermedien bis zum Netzwerk. Daher sind trotz Deduplizierung viele Probleme noch ungelöst:
- Backups dauern zu lange: Deduplizierung bringt leider nur marginale Geschwindigkeitsverbesserungen. Denn die vorhandenen Backup-Lösungen sind langsam, ineffizient und übertragen eine Unmenge redundanter Daten, die dann per Deduplizierung entfernt werden müssen. Zudem helfen Geschwindigkeitsverbesserungen aufseiten des Zielgeräts oft wenig, da die Server die Daten gar nicht in der Geschwindigkeit senden können, in der das Zielgerät sie verarbeitet.
- Die Datenwiederherstellung dauert zu lange: Deduplizierung ändert nichts am althergebrachten Modell, dass Dateien bei der Wiederherstellung komplett rückübertragen werden müssen. Das allerdings beansprucht viel zu viel Zeit. Anwendungen, die nicht laufen, kosten viel Geld – die durchschnittlichen Downtime-Kosten pro Stunde belaufen sich auf mehrere zehntausend Euro und können sogar mehrere Millionen Euro betragen – je nach Firma und Geschäftsfeld.
- Immer mehr Anwendungen laufen rund um die Uhr: Deduplizierung entlastet nicht den Client. Backups belasten die Leistungsfähigkeit von Servern und Anwendungen, daher gibt es Backup-Fenster. Aber die Fenster werden immer kleiner, da immer mehr Anwendungen ständig in Betrieb sind – der E-Mail-Verkehr läuft längst rund um die Uhr. Hinzu kommt der Einfluss der zunehmenden Virtualisierung, der immer weniger Prozessorkapazitäten für Backups übriglässt.
- Steigende Komplexität und wachsende Kosten: Traditionelle Datensicherungslösungen sind oft schwierig zu bedienen und erfordern viel Zeit- und Lernaufwand. Gleichzeitig leisten sie oft wenig bei der Wiederherstellung von Umgebungen wie Microsoft SharePoint, Microsoft Exchange oder von virtuellen Maschinen. Das führt häufig dazu, dass zusätzliche Anwendungen installiert werden müssen, die weitere Kosten verursachen. Deduplizierung verringert zwar die Hardwarekosten von Festplatten-Backups, aber sie trägt nichts bei zur Reduzierung der Komplexität des Systems.
Unternehmen und Institutionen sollten ihre Backup-Strategien überdenken. Deduplizierung ist zweifellos sinnvoll, reicht aber nicht aus. Wer nicht nur die Symptome, sondern auch die Ursachen der Malaise angehen will, die durch die stetig wachsenden Datenmengen entstanden ist, braucht ein Konzept, das über Deduplizierung hinausgeht – und das nicht erst am Ende der Kette, am Speichermedium, sondern bereits am Start des Backup-Systems, am Server, ansetzt.
Weiter mit: Ein vollständiges Backup je Datei genügt
(ID:2052279)