Kommentar von Andreas Ribbrock zur einen Wahrheit in der Datenanalyse

Big-Data-Strategien

| Autor / Redakteur: Dr. Andreas Ribbrock / Rainer Graefen

Dr. Andreas Ribbrock, Senior Architect, Teradata
Dr. Andreas Ribbrock, Senior Architect, Teradata (Teradata)

Big Data sei eine Ergänzung zum Data Warehouse, ist vielerorts zu hören. Andere meinen, Data Warehouse sei dasselbe wie Big Data. Unser Autor erklärt in seinem Kommentar das Ying und Yang auf dem Weg zum Business-Wissen.

Klassische Business Intelligence und Big-Data-Analyse: Zwei Welten, die in vielen Unternehmen technisch und infrastrukturell noch getrennt behandelt werden. Auf der einen Seite die herkömmlichen BI-Anwendungen, die zahlreichen Anwendern zugänglich sind.

Auf der anderen Seite die Big Data-Technologien als Hoheitsgebiet der Spezialisten, allen voran MapReduce basierend auf dem Framework Apache Hadoop. Doch erst wenn sie integriert analysiert werden, geben die Datenmengen ihren ganzen Wert preis.

Schwachstelle Informationsdichte

Grund für die unterschiedliche Behandlung von Big Data-Quellen im Gegensatz zu Daten aus traditionellen BI-Anwendungen ist deren meist grundlegend andere Struktur: Bildgebende Verfahren in der Medizin, Audioaufzeichnungen aus Call Centern oder Sensordaten aus der Produktion sind nur einige Beispiele für Datentypen, die sich den herkömmlichen Zeilen- und Spaltenformaten zunächst verweigern.

Ihre schiere Menge und eine für gewöhnlich geringere Informationsdichte macht eine Speicherung im Enterprise Data Warehouse unrentabel. Das praktisch beliebig skalierbare Software-Framework Hadoop ist deshalb oft das Mittel der Wahl, um Big Data zu verarbeiten und zu analysieren. Auf diese Weise entstehen zwangsläufig zwei jeweils halbe Wahrheiten.

Am Brückenschlag muss noch gearbeitet werden

Zukünftige Big Data-Lösungen werden deshalb vor allem zwei essenzielle Anforderungen erfüllen müssen:

  • Erstens müssen für eine konsistente Sicht auf die Daten eines Unternehmens alle Datentypen zusammengeführt werden. Viele Ergebnisse aus Big Data-Analysen werden erst in Kombination mit anderen Informationsdimensionen aus Kundendaten, Transaktionen oder Geschäftskennzahlen, die in der klassischen relationalen Datenbank gespeichert sind, sinnvoll interpretierbar.
  • Zweitens müssen Technologien wie Hadoop auch Business-Anwendern zugänglich gemacht werden. MapReduce und Hadoop-Frameworks sind meist noch die Domäne von Experten und lediglich in der IT-Abteilung angesiedelt – mit der daraus resultierenden Notwendigkeit für den Brückenschlag zwischen Abteilungen auch für einfache Änderungen und Wünsche.

Während viele klassische BI-Instrumente längst über alle Fachabteilungen und hierarchischen Ebenen hinweg bis zum taktischen Decision-Making auf operativer Ebene genutzt werden, steht Big Data dieser Weg erst noch bevor.

Inhalt des Artikels:

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Kommentar abschicken

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 36694910 / Big Data)