Kommentar von Andreas Ribbrock zur einen Wahrheit in der Datenanalyse

Big-Data-Strategien

| Autor / Redakteur: Dr. Andreas Ribbrock / Rainer Graefen

Dr. Andreas Ribbrock, Senior Architect, Teradata
Dr. Andreas Ribbrock, Senior Architect, Teradata (Teradata)

Big Data sei eine Ergänzung zum Data Warehouse, ist vielerorts zu hören. Andere meinen, Data Warehouse sei dasselbe wie Big Data. Unser Autor erklärt in seinem Kommentar das Ying und Yang auf dem Weg zum Business-Wissen.

Klassische und Big-Data-Analyse: Zwei Welten, die in vielen Unternehmen technisch und infrastrukturell noch getrennt behandelt werden. Auf der einen Seite die herkömmlichen BI-Anwendungen, die zahlreichen Anwendern zugänglich sind.

Auf der anderen Seite die Big Data-Technologien als Hoheitsgebiet der Spezialisten, allen voran MapReduce basierend auf dem Apache Hadoop. Doch erst wenn sie integriert analysiert werden, geben die Datenmengen ihren ganzen Wert preis.

Schwachstelle Informationsdichte

Grund für die unterschiedliche Behandlung von Big Data-Quellen im Gegensatz zu Daten aus traditionellen BI-Anwendungen ist deren meist grundlegend andere Struktur: Bildgebende Verfahren in der Medizin, Audioaufzeichnungen aus Call Centern oder Sensordaten aus der Produktion sind nur einige Beispiele für Datentypen, die sich den herkömmlichen Zeilen- und Spaltenformaten zunächst verweigern.

Ihre schiere Menge und eine für gewöhnlich geringere Informationsdichte macht eine Speicherung im Enterprise unrentabel. Das praktisch beliebig skalierbare Software-Framework Hadoop ist deshalb oft das Mittel der Wahl, um Big Data zu verarbeiten und zu analysieren. Auf diese Weise entstehen zwangsläufig zwei jeweils halbe Wahrheiten.

Am Brückenschlag muss noch gearbeitet werden

Zukünftige Big Data-Lösungen werden deshalb vor allem zwei essenzielle Anforderungen erfüllen müssen:

  • Erstens müssen für eine konsistente Sicht auf die Daten eines Unternehmens alle Datentypen zusammengeführt werden. Viele Ergebnisse aus Big Data-Analysen werden erst in Kombination mit anderen Informationsdimensionen aus Kundendaten, Transaktionen oder Geschäftskennzahlen, die in der klassischen relationalen Datenbank gespeichert sind, sinnvoll interpretierbar.
  • Zweitens müssen Technologien wie Hadoop auch Business-Anwendern zugänglich gemacht werden. MapReduce und Hadoop-Frameworks sind meist noch die Domäne von Experten und lediglich in der IT-Abteilung angesiedelt – mit der daraus resultierenden Notwendigkeit für den Brückenschlag zwischen Abteilungen auch für einfache Änderungen und Wünsche.

Während viele klassische BI-Instrumente längst über alle Fachabteilungen und hierarchischen Ebenen hinweg bis zum taktischen Decision-Making auf operativer Ebene genutzt werden, steht Big Data dieser Weg erst noch bevor.

Inhalt des Artikels:

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 36694910 / Big Data)