Suchen

Die Datenmenge und -größe ist nur der Ausgangspunkt für das Big Money

Big Data treibt den Storage-Bedarf – aber nicht alle Hersteller profitieren

Seite: 2/2

Firma zum Thema

Schleppender I/O-Zugriff

Bei der Verarbeitung von Big Data ist zwischen den Compute-Servern und den Storage-Systemen ein Bottleneck zu erwarten. Aufgrund der geforderten Verarbeitungsgeschwindigkeit werden manche etablierte Techniken ins Schleudern kommen. Der I/O- (Input/Output-) Performance widmet deshalb DataDirect Networks die besondere Aufmerksamkeit.

Nach Gene Amdahl benötigt ein ausgewogenes System 1 Bit sequentielle I/O pro Maschinenbefehl. Große Computersysteme schaffen heutzutage jedoch nur magere 0,001 I/Os pro Instruktion, sind also um den Faktor 1000 zu langsam. Und sogar speziell auf eine hohe I/O-Performance zugeschnittene Systeme erreichen vielleicht 0,05 bis knapp unter einem Bit pro Maschinenbefehl. Und durch die Parallelisierung der Compute-Power wird das Problem weiter verschärft.

Anwender im technisch-wissenschaftlichen Umfeld beklagen, dass sie sehr viel Aufwand in der Entwicklung neuer mathematischer Modelle betreiben müssen, um ihre IT-Systeme auszulasten. Das ist ein Hinweise darauf, dass Big Data allein mit immer größeren Speichersystemen und Compute-Servern nicht beherrschbar ist. Damit rückt das Thema in den Bereich des High-Performance-Computings.

Maschine an Maschine

Richtig spannend wird es, wenn Big Data nicht nur einfach „große Datenmengen, die von einer Organisation verwaltet werden“ beschreibt, sondern wenn diese Daten thematisch und organisatorisch mit einem gleichen gemeinsamen Gedanken verknüpft sind.

Während also „alle Finanztransaktionen einer Bank“, „alle Facebook-Daten“ oder „alle Google-Daten“ nicht automatisch Big Data sind, so könnten „alle Mobile-Banking-Transaktionen“, „alle-Googlemaps-Hoteleinträge“ oder „Alle-Facebook-Flugempfehlungen“ durchaus eine zusammengehörige große Menge von Daten darstellen.

Etwas deutlicher wird das Verständnis von Big Data bei einem Blick in die Zukunft, wenn man die „Car-to-Car-Kommunikation-in-Deutschland“ begutachtet. Bei einem Test durch die großen deutschen Automobilhersteller mit nur wenigen Fahrzeugen wurden innerhalb eines kurzen Zeitraumes 30 Terabyte Daten erzeugt. Es gibt in Deutschland aber rund 40 Millionen Pkw, und das zeigt, dass Big Data nicht nur ein Marketing-Hype sein kann.

(ID:33450260)