Kommentar von Christoph Schmid, Balesio AG

Kosten sparen durch native Dateioptimierung auf Primärspeichern

| Autor / Redakteur: Christoph Schmid / Nico Litzel

Der Autor: Christoph Schmid ist Chief Operating Officer der Balesio AG
Der Autor: Christoph Schmid ist Chief Operating Officer der Balesio AG

Das Problem ist allgegenwärtig und brennt IT-Administratoren regelrecht unter den Nägeln: Das Datenvolumen wächst rasant und scheinbar unaufhörlich. Dabei verursachen vor allem die tägliche, intensive Nutzung von Microsoft-Office-Programmen sowie die wachsende Anzahl an Bildern in den verschiedensten Dateiformaten eine von den Anwendern oft ungewollte Datenflut.

Microsoft-Office-Dateien und Fotos werden von Anwendern gerne und häufig über das Netzwerk versendet, nehmen also Bandbreite in Anspruch, können E-Mail-Postfächer verstopfen und müssen zudem auch regelmäßig gesichert werden. All das lässt die Datenberge immer rasanter wachsen und wer sich nicht anders zu helfen weiß, dem bleibt of nichts weiter übrig, als immer mehr Speicherplatz zur Verfügung zu stellen.

Trotz scheinbar sinkender Speicherpreise müssen so immer größere Teile des IT-Budgets allein für die Bereitstellung von Speicherplatz herangezogen werden. Das ist Geld, das dann an anderer Stelle für die Optimierung von Prozessen oder die Einführung von neuen Programmen fehlt. Und das, obwohl eine Vielzahl an Lösungen wie Deduplizierung, Tiering und Archivierung auf dem Markt erhältlich sind, die darauf abzielen, die Storage-Kosten zu reduzieren. Das zentrale Problem hierbei ist, dass sich solche Techniken an den Kern des Problems gar nicht erst heranwagen und somit ineffizient bleiben.

Mäßige Deduplizierungsraten auf Primärspeichern

Eine Deduplizierung beispielsweise sorgt für die Eliminierung von doppelt vorhandenen Dateien beziehungsweise Dateiblöcken. Das hohe Datenvolumen auf Primärspeichern wird jedoch von der Masse an unterschiedlichen Dateien verursacht. Die im Vergleich zu Backupvolumina, bei denen die fortlaufende Sicherung von Daten eine hohe Redundanz und damit sehr gute Deduplizierungsergebnisse aufweist, sorgt die niedrige Redundanz innerhalb von Daten auf Primärspeichern nur für enttäuschte Gesichter. Dies ist keineswegs der jeweils eingesetzten Lösung anzulasten, sondern der einfachen Tatsache, dass auf Primärspeichern nicht ein Redundanzniveau wie bei Backups gegeben ist.

Ein Mittel, wie dennoch wirksam gegen das Datenwachstum vorgegangen werden kann, ist die native Dateioptimierung. Dabei handelt es sich nicht um eine Komprimierung im eigentlichen Sinne, sondern vielmehr um eine Optimierung der Inhalte einer Datei auf Dateiebene, bei der das Originalformat beibehalten wird. Unstrukturierte Dateien, etwa PDF-Dateien oder eine Powerpoint-Präsentation, werden dabei auf ihre Inhalte untersucht. Befindet sich in der Datei zum Beispiel ein Bild doppelt, in einem übergroßen oder gar im falschen Format, so wird dieses automatisch innerhalb der Datei optimiert. So können Größenreduzierungen von 50 bis zu 90 Prozent erreicht werden.

JPEG- und TIFF- Dateien um 70 Prozent und mehr reduzieren

Auch bereits komprimierte Dateien wie JPEG-Fotos können visuell verlustfrei optimiert werden, da Digitalkameras aufgrund limitierter CPU-Ressourcen und begrenzten Batterielaufzeiten die Möglichkeiten, die das JPEG-Format bietet, nicht voll ausschöpfen. Dateien im JPEG-, TIFF- und anderen Formaten lassen sich durch native Dateioptimierung so um 70 Prozent und mehr reduzieren. Im Gegensatz zu einer Deduplizierung wird also ein ganz anderer Ansatz verfolgt, der aber gerade bei unstrukturierten Datenvolumina auf Primärspeichern besonders gut funktioniert.

Mithilfe einer solchen nativen Dateioptimierungslösung der Schweizer balesio AG erzielte beispielsweise die Sparkasse Münsterland Ost beeindruckende Ergebnisse, wie der dort verantwortliche Projektleiter unterstreicht: „Durch den Einsatz der NFO-Technologie konnten wir bisher das MS-Office-, Bild- und PDF-Datenvolumen auf unserem SAN-Storage um durchschnittlich 64 Prozent reduzieren.“

Innerhalb kurzer Zeit konnten Einsparungen im dreistelligen Gigabytebereich realisiert werden, sodass nun fast dreimal mehr Dateien auf dem bestehenden Storage Platz finden. Durch die Reduzierung des Datenvolumens bereits auf dem Primärspeicher ergeben sich neben diesen harten Einsparungen durch das geringere Datenvolumen ebenfalls kürzere Backup-Zeiten und geringere Backup-Volumina. Optimierte Dateien entlasten zusätzlich das Netzwerk und schonen die Bandbreite. Das spiegelt sich dann in einem geringeren Speicherbedarf ebenso wider wie im Geldbeutel.

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 33329060 / Ressourcen)