Mobile-Menu

Auszug aus dem IBM Storage System Kompendium

Tivoli Storage Manager – die Erfolgsgeschichte der ersten 20 Jahre, Teil 5

Seite: 4/5

Anbieter zum Thema

April 2009 –TSM V6.1 mit neuer Datenbankarchitektur und Deduplizierung

Fast 20 Jahre hatte die Datenbank-Architektur auf Basis der B+ Tree-Technologie Bestand. Die steigenden Sicherungsvolumina und vor allem die steigende Anzahl von Sicherungs-Objekten machten eine Architekturänderung nötig, um besser zu skalieren und die Online-Verfügbarkeit den erhöhten Anforderungen anzupassen. Deshalb wurde in V6.1 DB2 als Datenbanktechnologie für die Verwaltung der TSM-Metadaten eingeführt.

Die DB2-Technologie erfüllt einerseits die erhöhten Skalierbarkeitsanforderungen moderner Umgebungen, ermöglicht andererseits die Nutzung neuer Verfahren wie die online Konsistenzprüfung, online Reorganisation und umfassende Index-Generierung und eröffnet der TSM-Architektur zusätzliche Freiheitsgrade für zukünftige Erweiterungen.

Die Portierung auf die neue Datenbanktechnologie wurde in enger Zusammenarbeit mit dem DB2-Labor in Toronto geplant und umgesetzt und den Entwicklern gelang es, alle spezifischen Funktionen, die technologisch an die ursprüngliche Datenbank gebunden waren, auch in die neue DB2-Umgebung zu portieren.

„Dedupe – the biggest thing in Backup”

Deduplizierung ist nach Meinung von selbst ernannten Brachenkennern „… the biggest thing in backup since the incremental.“ (W. Curtis Preston im Februar 2009 in „TSM 6,1, dedupe & DB2“ auf www.backupcentral.com).

Bei der Deduplizierung handelt es sich im Grunde genommen nur um ein neues Verfahren von Datenkompression mit der Eigenschaft, Datenobjekte in Blöcke zu zerlegen und über diese Blöcke Vergleichsoperationen laufen zu lassen, mit dem Ziel, Redundanzen zu erkennen. Redundante Blöcke werden in den Metadaten referenziert und dann gelöscht. Die Menge der gelöschten redundanten Blöcke ist dann das Maß für die Speicherersparnis (= Kompressionsfaktor = Dedup-Ratio).

TSM V6.1 arbeitet asynchron

TSM V6.1 stellt Deduplizierungsfunktionen optional für seine Diskpools zu Verfügung und arbeitet asynchron, d. h., die Sicherungsdaten werden zuerst unmodifiziert gespeichert, dann in Folgeprozessen analysiert und dedupliziert. Es ist geplant, das Verfahren in Folgereleases von TSM V6.1 auch auf die TSM-Clients zu erweitern, was einmal die Berechnungslast verteilt und vor allem die Datenmengen reduziert, die von den Clients z. B. über öffentliche Netze verschickt werden müssen.

Das Verfahren ist höchst effizient, weil die Vergleichsoperationen auf dem zentralen TSM-Sicherungsserver stattfinden und die Datenmenge aller Clients als Basis für die Redundanzerkennung verwendet wird.

Weiter mit: Zusammenfassung und Schlusswort

(ID:2045039)