Suchen

Storage-Lösungen für Big Data Ein Ende der Datensammelwut ist nicht in Sicht

| Autor / Redakteur: Gunther Thiel, NetApp / Nico Litzel

Viele Unternehmensdaten wurden nur gespeichert, damit man sie später löschen kann. Ein neuartiges Analysekonzept verspricht die sinnvolle Wiederbelebung.

Firmen zum Thema

(istockphoto.com © Andrew Rich)
(istockphoto.com © Andrew Rich)

Immenses Datenwachstum lässt den Speicherbedarf rund um den Globus explodieren. Ein Großteil davon sind unstrukturierte Daten, die klassischen Ordnungsprinzipien nicht genügen. Sie liegen beispielsweise als Files vor, im Gegensatz zu einfach analysierbaren Datenbankinhalten. Big Data ist also gleichermaßen ein Problem der Datenspeicherung als auch des Datenmanagements. Mit der richtigen Storage- und Datenmanagement-Lösung bietet „Big Data“ jedoch große Chancen.

„Big-Data-fähige“ Speicherarchitekturen erlauben es, die von Unternehmen und Kunden forcierte Digitalisierung der Wirtschaft lukrativ nutzen zu können. Innovative Speichertechnik ist ein Kernelement, um Big Data plattformübergreifend profitabel handhaben zu können. Wer einige Regeln beachtet, ist bereits mit heutigen Storage-Lösungen fit für Big Data.

Das ABC des Big Data

Drei Bereiche prägen den Begriff Big Data und seine Nutzung: Big Analytics (A), Big Bandwidth (B) und Big Content (C).

(A) Big Analytics: Die Echtzeit-Analyse extrem großer Datenbestände verschafft zusammen mit ihrer zuverlässigen Speicherung wettbewerbsentscheidende Einblicke, mit denen Kunden künftige Chancen und Risiken früher identifizieren. Solche Auswertungen setzen beispielsweise auf dem Hadoop-Framework auf.

(B) Big Bandwith: Analyse-relevante Daten müssen schneller denn je zur Verfügung stehen. Um hohe Workloads zu bewältigen, sind kurze Latenz und hoher Datendurchsatz unerlässlich.

Besonders bandbreitenintensive Services auf Basis von Voice und Video oder für High Performance Computing, beispielsweise mithilfe des Hochleistungs-Filesystems Lustre, lassen sich anders nicht abbilden.

(C) Big Content:

Beim Big Content geht es im wahrsten Sinne des Wortes um schier grenzenlose Speicherkapazitäten und Datensicherung im Storage-Grid-Umfeld. Hier wird Content nach Objektkriterien innerhalb eines globalen Adressraums kategorisiert. Kunden erreichen so eine extreme Skalierbarkeit für Mediadateien und Firmendaten.

(ID:32413080)