Suchen

Marktübersicht Deduplizierungs-Appliances, Teil 2 Mit vielen Tricks versuchen die Dedup-Hersteller die Kompressionseffizienz zu erhöhen

| Autor / Redakteur: Thomas Böcker / Rainer Graefen

Spezial-Algorithmen, RAM-Indizierung, Prüfung auf Byte-Ebene und zweistufige Deduplizierung sollen die Leistungsfähigkeit der Deduplizierungs-Appliances erhöhen. An der Deduplizierungsrate ändert das – nichts. Da in der Praxis erzielbare Werte selten kommuniziert werden, behaupten fast alle Hersteller unisono: Im Schnitt 20-fache Reduzierung.

Firmen zum Thema

So stellt sich Falconstor die weitestgehend von Duplikaten bereinigte Deduplizierung im Unternehmen vor.
So stellt sich Falconstor die weitestgehend von Duplikaten bereinigte Deduplizierung im Unternehmen vor.
( Archiv: Vogel Business Media )
Bei Falconstor bemerkt man am deutlichsten, dass Deduplizierung nur ein Software-Algorithmus ist. (Archiv: Vogel Business Media)

Falconstor

Midrange/Remote: FS-VTLSA 520R-A – Bei dieser Virtual Tape Library Storage Appliance handelt es sich um ein echtes Midrange-System, das für gehobene KMU-Bedürfnisse ausgelegt ist. Da auch FalconStor auf Post-Processing setzt, fällt schon die Brutto- bzw. Basiskapazität mit 20 TByte recht beeindruckend aus; auf Basis einer realistischen Deduplikationsrate von 20:1 ergibt sich eine maximale logische Kapazität von 400 TByte, wodurch sich Daten der letzten 450 Tage (15 Monate) online halten lassen.

Bildergalerie
Bildergalerie mit 5 Bildern

An Schnittstellen bietet die VTLSA 520 vier Gigabit-Ethernet- und zwei 4-Gbit-Fibre-Channel-Ports. Die Durchsatzrate liegt laut Hersteller bei 400 MByte pro Sekunde, was rechnerisch knapp über 1,4 TByte pro Stunde entspricht. Alle FalconStor-VTLs unterstützen Windows, Linux, Unix, MacOS, NetWare und IBMs System i-Server (vormals iSeries).

Enterprise: Virtual Tape Library Enterprise Edition – Die große Schwester der VTLSA 520 profitiert von der Möglichkeit, bis zu acht Einheiten (Nodes) in einem Cluster zusammenzufassen, und einer besseren Schnittstellenausstattung (10 GBit-Ethernet und 8Gbit-FC), durch die sich die Basis-Speicherkapazitäten auf 1,6 PByte und die Durchsatzrate auf 43 TByte pro Stunde steigern lässt.

Fujitsu Technology Solutions

Vorgänger Fujitsu Siemens Computers bezog hardwarebasierte Deduplikationslösungen i.d.R. von den Vertriebspartnern EMC und NetApp oder kombinierte deren Software mit eigenen Servern, etwa zur Backup-Lösung Avamar on Primergy, die seit dem Frühjahr bei führenden europäischen Einzelhändlern im Einsatz ist und das Datenaufkommen bereits an der Quelle (also inline) reduziert.

Nach der Übernahme durch Fujitsu setzt das Unternehmen erst mal den bewährten Kurs fort. Ob dies auch in Zukunft so bleibt, wird aber wohl davon abhängen, wie Fujitsu das eigenes Speicherkonzept Storplex weiterentwickelt.

Hitachi Data Systems

Wie Fujitsu integriert Hitachi die Technki seiner Lösungs- und Entwicklungspartner in die eigenen Produkte, in diesem Fall die Backup-Software Data Protection Suite. Diese läuft auf den Speichersystemen der Familie Adaptable Modular Storage 2000, die hauptsächlich auf die Sicherung von MS Exchange, VMware und Datenbanken zugeschnitten sind. Für die Deduplizierung greift die Data Protection Suite seit 2007 auf die Protectier-Architektur von IBM/Diligent zurück (s. u.).

weiter mit: Spezial-Algorithmen, RAM-Index, Byte Prüfung

(ID:2041784)