Storage-Lösungen für Big Data

Ein Ende der Datensammelwut ist nicht in Sicht

| Autor / Redakteur: Gunther Thiel, NetApp / Nico Litzel

(istockphoto.com © Andrew Rich)
(istockphoto.com © Andrew Rich)

Viele Unternehmensdaten wurden nur gespeichert, damit man sie später löschen kann. Ein neuartiges Analysekonzept verspricht die sinnvolle Wiederbelebung.

Immenses Datenwachstum lässt den Speicherbedarf rund um den Globus explodieren. Ein Großteil davon sind unstrukturierte Daten, die klassischen Ordnungsprinzipien nicht genügen. Sie liegen beispielsweise als Files vor, im Gegensatz zu einfach analysierbaren Datenbankinhalten. Big Data ist also gleichermaßen ein Problem der Datenspeicherung als auch des Datenmanagements. Mit der richtigen Storage- und Datenmanagement-Lösung bietet „Big Data“ jedoch große Chancen.

„Big-Data-fähige“ Speicherarchitekturen erlauben es, die von Unternehmen und Kunden forcierte Digitalisierung der Wirtschaft lukrativ nutzen zu können. Innovative Speichertechnik ist ein Kernelement, um Big Data plattformübergreifend profitabel handhaben zu können. Wer einige Regeln beachtet, ist bereits mit heutigen Storage-Lösungen fit für Big Data.

Das ABC des Big Data

Drei Bereiche prägen den Begriff Big Data und seine Nutzung: Big Analytics (A), Big Bandwidth (B) und Big Content (C).

(A) Big Analytics: Die Echtzeit-Analyse extrem großer Datenbestände verschafft zusammen mit ihrer zuverlässigen Speicherung wettbewerbsentscheidende Einblicke, mit denen Kunden künftige Chancen und Risiken früher identifizieren. Solche Auswertungen setzen beispielsweise auf dem Hadoop-Framework auf.

(B) Big Bandwith: Analyse-relevante Daten müssen schneller denn je zur Verfügung stehen. Um hohe Workloads zu bewältigen, sind kurze Latenz und hoher Datendurchsatz unerlässlich.

Ergänzendes zum Thema
 
Die Datenanalyse braucht viele Daten
 
Storage-Vorteile bei Hadoop

Besonders bandbreitenintensive Services auf Basis von Voice und Video oder für High Performance Computing, beispielsweise mithilfe des Hochleistungs-Filesystems Lustre, lassen sich anders nicht abbilden.

(C) Big Content:

Beim Big Content geht es im wahrsten Sinne des Wortes um schier grenzenlose Speicherkapazitäten und Datensicherung im Storage-Grid-Umfeld. Hier wird Content nach Objektkriterien innerhalb eines globalen Adressraums kategorisiert. Kunden erreichen so eine extreme Skalierbarkeit für Mediadateien und Firmendaten.

Inhalt des Artikels:

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 32413080 / Daten)