Suchen

ICT Newsletter - Der Versuch der Experton Group das Kunstwort „Big Data“ begrifflich zu verorten Big Data – kein neuer Hype, aber eine neue Dimension!

| Autor / Redakteur: Andreas Zilch, Holm Landrock / Rainer Graefen

Die Storage-Industrie hat mit Big Data einen Begriff aus der Taufe gehoben, den die IT-Gemeinde nun zu entziffern sucht. Erfordern viele „große Daten“ tatsächlich einen anderen technischen Aufwand als viele „kleine Daten“?

Firmen zum Thema

Big Data - ein dynamisch wachsender Zustand?
Big Data - ein dynamisch wachsender Zustand?
( Archiv: Vogel Business Media )

Das Thema „Big Data“ wird aktuell positioniert und diskutiert, getrieben zum Einen durch Marketing-Aktivitäten der Anbieter, aber auch durch Veränderungen der Informationsbasis und entsprechender Nachfrage der Anwender.

Was Big Data nicht ist

Da es sich um ein relativ neues Thema – oder zumindest einen neuen Begriff – handelt, ist es zunächst wichtig, eine gemeinsame und klar abgegrenzte Definition zu finden. Big Data wird von der Experton Group nicht als neuer Hype, sondern als neue Dimension verstanden, die traditionelle Datenanalysemethoden erweitert.

Zur Abgrenzung von „Big Data“ ist dabei zunächst festzustellen: Big Data ist

  • Keine einzelne Technologie
  • Kein Hardware- oder Software-Produkt
  • Keine IT-Strategie oder –Architektur
  • Kein Marketing-Buzzword
  • Kein kurzfristiger Trend

Vielmehr ist Big Data eine Erweiterung von schon bestehenden Datenanalysemethoden, -prozessen und -verfahren. Der Anlass für diese neue Entwicklung ist, dass sich die Parameter in verschiedenen Kategorien massiv verändert haben und dies auch zukünftig zu erwarten ist (siehe Aufmacherbild).

Datenmenge schlägt Analysetechnik

Die naheliegenste und am meisten diskutierte Erweiterung ist das drastische Daten- und Informationswachstum. Dabei gibt es in der Big Data Definition keine festen Grenzen: die Entwicklung wird von Terabyte über Petabyte und Exabyte zu Zettabyte und Yottabyte gehen – dies hat uns die Erfahrung der letzen Jahre gelehrt. In diesen Dimensionen skalieren aktuelle Technologien und Methoden nicht.

Die zweite Dimension betrifft die Geschwindigkeit, mit der die Analysen erwartet und gefordert werden – wo früher monatliche Reports eine Woche nach Monatsabschluss ausreichten, geht heute der Trend zu Millisekunden / Echtzeitanalysen.

Die Anzahl der Datenquellen wächst ebenfalls überproportional – neben Informationen aus Social Networks spielen hier auch automatisch / maschinell generierte Daten und die sich daraus ergebenden neuen Analyseansätze eine wichtige Rolle.

Wo kommen sie her, was steckt in ihnen drin?

Auch die Anzahl der (direkten) Nutzer von Datenanalysen steigt stetig, wobei sich sehr unterschiedliche und differenzierte Rollen herausbilden. Während es für jede einzelne Disziplin noch Lösungen gibt, so ist die Kombination dieser vier massiven Wachstumsbereiche, ergänzt um die Querschnittsthemen Datensicherheit und Datenqualität – mit heute bestehenden Ansätzen nicht lösbar.

Auf der anderen Seite ist der Nutzen für die Anwender sehr transparent, daher besteht auch ein großes Interesse an den Ansätzen zum Thema Big Data. Big Data Technologien befassen sich dabei mit Erfassen, Konsolidieren, Speichern, Verarbeiten, Auswerten und der Bereitstellen großer Datenmengen.

Die Experton Group bewertet Big Data als ein wichtiges Thema, das sich in die wichtigen Themen der letzten Jahre wie GreenIT, Cloud Computing und Client_of_the_Future einreiht und hierzu auch interessante Schnittstellen hat.

Daher hat die Experton Group hierzu auch ein dediziertes Research Programm aufgelegt, welches Research Notes, ein MultiClient Projekt und einen Big Data Vendor Benchmark umfasst.

(ID:2052899)