Mobile-Menu

Kommentar von Fabian Czicholl, Appian Data Fabric – Datenmanagement neu gedacht

Von Fabian Czicholl 5 min Lesedauer

Anbieter zum Thema

Daten sind heutzutage das Lebenselixier jeder Organisation. Ohne Daten fehlen essenzielle Einblicke in Geschäftsprozesse, Kunden, Mitarbeiter und den allgemeinen Zustand des Unternehmens. Für viele Unternehmen jedoch stellt diese Big-Data-Thematik nach wie vor eine große Herausforderung dar: Aufgrund unterschiedlicher Problemstellungen verwalten sie ihre Daten ineffizient oder gar unsachgemäß, sodass ihnen wichtige Erkenntnisse verwehrt bleiben. Abhilfe kann hier die Data-Fabric-Technologie als neuer Lösungsansatz schaffen.

Der Autor: Fabian Czicholl ist Regional Vice President bei Appian Deutschland.(Bild:  Appian Deutschland)
Der Autor: Fabian Czicholl ist Regional Vice President bei Appian Deutschland.
(Bild: Appian Deutschland)

Was zeichnet Data Fabric aus und wie unterscheidet es sich von herkömmlichen Datenmanagement-Ansätzen? Einfach gesagt: Data Fabric verbindet Daten und ganze Datensätze über verschiedene Software-Systeme hinweg – unabhängig davon, ob sie sich auf lokalen Servern oder in der Cloud befinden – und schafft einen vollständigen Zugriff und damit eine komplette Sicht auf die Daten. Data Fabric ist sowohl ein Toolset als auch eine einheitliche Architekturschicht, die auch als virtualisierte Datenebene bezeichnet wird.

Die Grundlagen von Data Fabric

Bei Data Fabric verbleiben die Datensätze in ihren ursprünglichen Systemen. Dank einer virtualisierten Datenebene müssen Daten nicht aus ihrem aktuellen Speicherort, beispielsweise einer Datenbank, einem ERP-System oder einer CRM-Anwendung, verschoben werden, um mit ihnen zu arbeiten. Mitarbeiter erhalten somit Zugriff auf Echtzeitdaten, was qualitativ bessere und schnellere Entscheidungen ermöglicht und dabei auch IT-Teams von zeitaufwendiger und kostenintensiver Datenintegrationsarbeit entlastet.

Durch einen Data-Fabric-Ansatz lassen sich Geschäftsdaten auf neue Weise kombinieren. Das Analystenhaus Gartner bezeichnet diese Idee als „komponierbares Design“ und nannte sie als einen der Gründe, warum es Data Fabric 2022 zum wichtigsten strategischen Technologietrend kürte.

Data Fabric oder Data Lake?

Data Fabric ist nicht zu verwechseln mit Data Lake. Ähnlich wie bei einem Data Warehouse besteht das primäre Ziel eines Data Lakes darin, Daten an einem zentralen Speicherort zu sammeln. Der wesentliche Unterschied zwischen Data Warehouse und Data Lake liegt darin, dass ein Data Warehouse strukturierte Daten, ein Data Lake hingegen unstrukturierte Daten sammelt.

Das Ziel von Data Fabric hingegen ist es, die Daten zu verbinden. Bei einem Data Lake müssen alle Daten aus ihrem jeweiligen System extrahiert und in den Lake geladen werden, wo sie verbleiben, bis die Transformation und Analyse zu einem späteren Zeitpunkt erfolgt. Entwickler können so lange keine neue Anwendung starten, bis diese Arbeit erledigt worden ist. Ein Data Lake eignet sich damit für analytische Aufgaben, unterstützt jedoch keine transaktionalen Abläufe. Dies betrifft vor allem Systeme, die Echtzeitdaten erfordern, zum Beispiel CRM-Anwendungen. Zudem bindet die kontinuierliche Wartung eines Data Lakes im Laufe der Zeit häufig die Entwicklungsteams.

Anforderungen an Plattformen für die Prozessautomatisierung

Data-Fabric-Tools sind in besonderem Maße eine wichtige Komponente bei einer Plattform für die Prozessautomatisierung, neuerdings auch gerne Hyperautomation genannt. Denn um eine komplexe Automatisierung im großen Maßstab zu erreichen, bedarf es einer soliden Datenarchitektur, die verschiedene Datenquellen miteinander verbindet. Vor allem dann, wenn die berühmten Datensilos bestehen, die über die gesamte Organisation verstreut sind. Nur so ist es möglich, einen vollständigen Prozess zu automatisieren.

Eine Plattform für die Prozessautomatisierung kombiniert darüber hinaus eine Reihe weiterer Technologien, um diese Gesamtprozesse zu optimieren und zu automatisieren. Dazu gehören Robotic Process Automation (RPA), Intelligent Document Processing (IDP), Workflow-Orchestrierung, Künstliche Intelligenz (KI), Systemintegration, Geschäftsregeln und eben Data Fabric. Der Data Fabric kommt hier wie beschrieben eine zentrale Rolle zu, da sie Datenquellen in verschiedenen Systemen, On-Premises oder in Cloud-Umgebungen, miteinander verknüpft und in die Prozessabläufe integriert.

Neben den Data-Fabric-Tools sollte eine Plattform für Prozessautomatisierung auch über vorgefertigte Konnektoren verfügen, die Systeme wie CRM, ERP und Datenbankanwendungen miteinander verknüpfen, ohne diese Integrationen erst von Grund auf entwickeln zu müssen. Eine Workflow-Orchestrierung sollte ebenfalls vorhanden sein, um beispielsweise Aufgaben nahtlos zwischen Software-Bots und menschlichen Mitarbeitern zu verteilen oder zu koordinieren.

Die vier Vorteile von Data Fabric

Eine Prozessautomatisierungsplattform auf Grundlage einer modernen Data-Fabric-Komponente bietet aus diesem Grund handfeste betriebswirtschaftliche Vorteile in vier Bereichen:

1. Entwicklungsgeschwindigkeit und Skalierbarkeit

Eine Data-Fabric-Architektur bietet konsistente Funktionen für sämtliche Entwicklungen im Bereich datengesteuerter Anwendungen. Jedes Unternehmen hat Daten verstreut in unterschiedlichen Systemen oder in hybriden Multi-Cloud-Umgebungen liegen. Ohne einen Data-Fabric-Ansatz erfordern diese hybriden Umgebungen komplexe „Data-Engineering“-Fähigkeiten, um die erforderlichen Daten in Anwendungen zu integrieren, und führen zu erheblichen Verzögerungen bei der Entwicklung neuer Geschäftsanwendungen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Data-Storage und -Management

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Mit Data-Fabric-Technologie können Daten unabhängig von ihrem Standort oder Format leicht abgerufen, verwaltet und analysiert werden. Egal ob es sich um transaktionale oder operationale, strukturierte oder unstrukturierte Daten handelt – sie können mit den Virtualisierungstools in Data-Fabric-Lösungen schnell integriert werden. Ohne den Aufwand einer Datenmigration oder komplexer Abstimmungen von Datenbanken können Entwicklungsteams schneller agieren, wenn neue Datenquellen hinzugefügt oder neue Verbindungen zwischen Daten erstellt werden müssen.

Dies hilft auch dabei, Daten über Anwendungen hinweg zu skalieren. Dank der erstellten vereinheitlichten Architektur kann auf die benötigten Daten einfach über die Data Fabric zugegriffen werden. Ist die Data Fabric erst einmal eingerichtet, können Entwicklerteams sie immer wieder verwenden.

2. Vereinheitlichte Analyse

Data Fabric ermöglicht klare Einsicht in die Daten des gesamten Unternehmens: Sie verwendet eine virtualisierte Datenebene, um Daten aus jeder Quelle in ein einheitliches Modell zu extrahieren. Durch diese Vereinheitlichung von Daten können Unternehmen eine umfassendere und genauere Sicht auf ihre Geschäftsprozesse, Kunden und Märkte erhalten. Dieses einheitliche Datenmodell gibt ihnen zudem die Möglichkeit, Advanced-Analytics-Prognosen durchzuführen, die vorher nicht möglich waren.

3. Erkenntnisse in Echtzeit

Darüber hinaus unterstützt Data Fabric Erkenntnisse in Echtzeit. Auch hier spielt die virtualisierte Datenschicht eine wesentliche Rolle. Sie überträgt konsistent Updates, sowohl beim Lesen als auch beim Schreiben von Daten, an die ursprüngliche Datenquelle und von ihr zurück. Dadurch sind die Daten immer auf dem neuesten Stand.

Auf Basis solch akkurater Daten lassen sich datengestützte Entscheidungen schneller als je zuvor treffen. Ganz gleich, ob ein Geschäftsprozess optimiert oder das Kundenerlebnis verbessert werden sollen – einheitliche Echtzeitdaten ermöglichen es jedem, die bestmöglichen Entscheidungen zu treffen und weniger Zeit durch das Warten auf Daten zu verlieren – oder noch schlimmer, Entscheidungen auf Basis nicht mehr aktueller Daten oder ganz ohne Daten zu treffen.

4. Zentralisierte Datensicherheit

Der vielleicht wichtigste Grund für den Einsatz von Data Fabric ist die Möglichkeit, den Zugriff auf Daten auf jeder Ebene zuverlässig zu sichern. Da jeder, der auf Daten zugreifen will, dies über die Data-Fabric-Architektur tun muss, lässt sich der Zugang selbst auf den granularsten Ebenen beschränken.

Nehmen wir an, eine bestimmte Anwendergruppe muss jeden Aspekt eines Kundendatensatzes bearbeiten können, aber nur in ihrem Markt. Ohne Data Fabric könnte dies eine Herausforderung sein, da das Land des Mitarbeiters im Personalwesen (HR) liegt, während der Kundendatensatz über mehrere CRM-Systeme verstreut ist.

Hier kommt die Stärke von Data Fabric ins Spiel: Sie vereinheitlicht Daten in diesen unterschiedlichen Systemen und ermöglicht es, Daten auf der Grundlage eines Datenfelds in einem völlig separaten System rasch quellenübergreifend zu beziehen. Was früher eine gewaltige Aufgabe für Entwicklungsteams war, ist heute eine einfache Abfrage in einem Data-Fabric-System.

Fazit

Data Fabric ist ein innovativer Ansatz, um Datenmanagement und -integration in einem von zunehmender Komplexität geprägten IT-Umfeld zu verwirklichen. Durch die Verbindung von Daten aus verschiedensten Quellen, die Bereitstellung einer vereinheitlichten Datenmodellierungsebene und die Unterstützung agiler Analysen und Anwendungsentwicklungen bietet Data Fabric Unternehmen die Chance, ihre Daten effektiver zu nutzen, schnellere und fundiertere Entscheidungen zu treffen und letztlich ihre Geschäftsergebnisse zu verbessern.

Artikelfiles und Artikellinks

(ID:49806768)