Weniger Komplexität in hybriden Multi-Cloud-Umgebungen Datenvirtualisierung verschafft den Durchblick
Anbieter zum Thema
Traditionelle Methoden zur Datenintegration setzen oftmals auf ETL-Prozesse, die nicht für moderne Multi-Cloud-Umgebungen und Big Data geschaffen sind. Datenvirtualisierung kann hingegen Unternehmen von der Komplexität verschiedener Datenquellen und -formate entlasten.

Unternehmen benötigen heute Konzepte und Technologien, die Datenkonsumenten integrierte Ansichten und eine bessere Interaktion mit ihren Daten über alle Plattformen hinweg ermöglichen. Nach teilweise ernüchternden Erfahrungen mit On-Premises-Data-Warehouses und den Herausforderungen bei der Erstellung von selbst entwickelten, auf Apache Hadoop basierenden Data Lakes, entscheiden sich immer mehr Unternehmen für flexible Cloud-Services.
Dieser Entwicklung folgend, ziehen auch die entsprechenden Business-Intelligence- (BI-) und Analyseanwendungen in die Cloud um. Herkömmliche Methoden der Datenintegration, basierend auf Verschieben und Migrieren von Daten aus verschiedenen Quellen auf andere Plattformen, stößt in den komplexen Infrastrukturen von heute mit meist mehreren Cloud-Providern allerdings an ihre Grenzen und ist auch wirtschaftlich nicht mehr sinnvoll.
Neue Ansätze sind notwendig: Anstatt alle Daten an einen zentralen Ort zu verschieben, stellt Datenvirtualisierung eine Verbindung zu den Quellen her, um auf Metadaten zuzugreifen, die dann verwendet werden, um Datentransformationen und Joins zu ermöglichen, die zu einer neuen, logischen Datenquelle führen. Damit sind für Unternehmen viele Vorteile verbunden, wie die folgenden Beispiele zeigen.
Datenzugriff für alle
Die Demokratisierung des Datenzugriffs für BI, Analytics und Data Science ist eine Priorität für Unternehmen, die datengestützte Entscheidungsfindung erweitern wollen. Anstatt die Visualisierung und Analyse auf ausgewählte Power-User zu beschränken, die über Fachwissen im Umgang mit Daten verfügen, können Unternehmen heute Self-Service-Tools auch für Mitarbeiter ohne technischen Hintergrund einsetzen. Die Einführung von SaaS-Lösungen und Cloud-Speichern sollte die Demokratisierung noch schneller vorantreiben. Datensilos, für deren Zugriff spezielle Programmier- und Metadatenkenntnisse erforderlich sind, hemmen jedoch oft den Fortschritt. Der eingeschränkte Zugriff ist ein Problem für Anwender, die eine zeitnahe und vollständige Übersicht über ihre relevanten Daten benötigen, um fundierte Entscheidungen zu treffen.
Datenvirtualisierung kann dieses Problem lösen, indem Daten aus unterschiedlichen Quellen virtuell kombiniert werden, um neue logische Ansichten zu erstellen. Benutzer können diese dann von ihren Self-Service-Tools aus abfragen, ohne dass sie wissen müssen, wie sie auf die Daten an der Quelle zugreifen können. Dadurch stehen Anwendern wesentlich mehr und verlässlichere Daten aus verschiedenen Quellen zur Verfügung. Die Abstraktionsebene schützt die Nutzer zudem vor Problemen durch Veränderungen im Datenbestand und schafft die Flexibilität, Daten von einer Cloud-Plattform auf eine andere zu verschieben, ohne größere Unterbrechungen für Nutzer zu verursachen.
Governance in komplexen Umgebungen zentral implementieren
Data Governance ist in hybriden Multi-Cloud-Umgebungen kompliziert. Unternehmen müssen sicherstellen, dass sie über klare Richtlinien und Prozesse zum Schutz sensibler Datenbestände verfügen, unabhängig davon, ob sich die Daten im eigenen Rechenzentrum befinden oder von einem Cloud-Anbieter verwaltet werden. Dazu gehören vor allem personenbezogene Daten nach DSGVO. In einer Umgebung, in der die Daten auf verschiedene Cloud-Provider verteilt sind, kann es schwierig werden, den Überblick über alle Datenzugriffe zu behalten. Führen Unternehmen hingegen Datenvirtualisierung ein, dient diese Schicht als alleiniger Zugangspunkt zu den Daten. Dort können sie Single Sign-On, Authentifizierung und Verschlüsselung integrieren und so den Zugriff zentral überwachen.
Eine zusätzliche Governance-Priorität besteht darin, sicherzustellen, dass die Benutzer mit vertrauenswürdigen, konsistenten und qualitativ hochwertigen Daten arbeiten und dass Unternehmen wissen, was mit diesen Daten geschieht. Dazu ist es unerlässlich, die Herkunft der Daten zu kennen. Dieses Wissen ist sowohl für Audits als auch für das Verständnis der Verwendung von Daten für BI und Analysen erforderlich. Aus regulatorischen Gründen müssen Unternehmen den Datenzugriff regelmäßig prüfen und nachverfolgen, wer auf die Daten zugegriffen hat. Das wird jedoch zur Herausforderung, wenn die Datenintegration viele Bewegungen, Migrationen und Replikationen auf mehrere Cloud-Datenplattformen umfasst, was es wiederum schwierig macht, den Weg der Daten zu verfolgen. Datenvirtualisierung kann hier Abhilfe schaffen, da sie den Bedarf an Datenbewegungen, -migrationen und -replikationen signifikant reduziert. So wird die Durchführung von Audits vereinfacht, und Unternehmen können sich darauf konzentrieren, die Qualität und Konsistenz ihrer Daten zu verbessern.
Agiler und effizienter werden
Agilität ist einer der Hauptgründe für die Einführung von Cloud Computing. Unternehmen wollen flexibler werden und sich schneller an wandelnde Märkte anpassen können. Zu den Cloud-nativen Technologien, die für das Erreichen von Agilität wichtig sind, gehören Container, Microservices und offene, standardisierte Programmierschnittstellen (APIs). Datenvirtualisierung unterstützt dabei, die Trends bei Cloud-Entwicklungsarchitekturen besser zu nutzen und die Agilität des Datenmanagements zu erhöhen. Genauso wie Datenvirtualisierung Abstraktion nutzt, verwenden Cloud-native Technologien wie Container Abstraktion, um Komplexität zu verringern und Flexibilität zu gewinnen. Container sind im Prinzip virtuelle Pakete aus Code, Bibliotheken, Systemtools und anderen Elementen, die von Dateisystemen, Datenbanken und APIs benötigt werden, um Software-Anwendungen auszuführen. Dadurch sind sie weitgehend unabhängig, portabel, effizient und wiederverwendbar, wobei APIs zur Verbindung und zum Datenaustausch genutzt werden.
Datenvirtualisierungs- und Datenkatalogisierungslösungen können mit Pattformen wie Docker und Kubernetes integriert werden, um Container zu erstellen, zu testen und bereitzustellen. Mittels Abstraktion durch Datenvirtualisierung könnte ein Unternehmen beispielsweise ein logisches Data Warehouse mit wiederverwendbaren Datenobjekten erstellen, um die Zusammenstellung eines Self-Service-BI-Arbeitsbereichs zu realisieren. Im Entwicklungsumfeld kann Datenvirtualisierung dabei helfen, Probleme für DevOps-Zyklen zu lösen, bei denen Datenextraktions-, -verschiebungs- und -replikationsprozesse oft zu Engpässen werden, die die Automatisierung von Analysen verlangsamen. Mit einem schnelleren Datenzugriff können Entwickler mehr Tests durchführen, wodurch sie Fehler schneller entdecken und besser auf veränderte Anforderungen reagieren können.
Fazit
Heterogene Datenbestände, die über On-Premises- und verschiedene Cloud-Plattformen verteilt sind, stellen eine komplexe Umgebung für das Datenmanagement und Analytics dar. Allerdings können Unternehmen Datenvirtualisierung einsetzen, um den Bedarf an Datenverschiebung, -migration und -konsolidierung signifikant zu reduzieren – Aktivitäten, die oft die Datenintegration und -verwaltung in hybriden Multi-Cloud-Umgebungen erschweren und viele Ressourcen aufzehren. Da wertvolle Zeit, Netzwerkbandbreite und Rechenleistung frei werden, können Unternehmen mehr Zeit und Ressourcen für die tatsächlichen Analysen aufwenden, die dem Unternehmen konkreten Business-Value und Wettbewerbsvorteile verschaffen.
*Der Autor: Otto Neuer ist Regional VP Sales bei Denodo
(ID:47333747)