Suchen

Ausblicke und Prognosen Das sind die Big-Data-Trends 2020

| Autor / Redakteur: Dipl. Betriebswirt Otto Geißler / Nico Litzel

Big Data und Analytics sind eine wichtige Ressource für Unternehmen, um in einem hart umkämpften Wettbewerbsumfeld zu bestehen. Folgende Big-Data-Trends werden sich in diesem Jahr auf die aktuellen IT-Landschaften auswirken.

Firma zum Thema

Zu den wichtigsten Trends für 2020 gehören Wide Data, DataOps und Self-Service Analytics sowie das „Shazamen“ von Daten.
Zu den wichtigsten Trends für 2020 gehören Wide Data, DataOps und Self-Service Analytics sowie das „Shazamen“ von Daten.
(Bild: gemeinfrei / Pixabay )

Datenquellen und KI-Anwendungen werden immer komplexer beziehungsweise umfassender. Daher wird 2020 ein weiteres Jahr für Innovationen und Weiterentwicklungen im Big-Data-Bereich. Hier sind die wichtigsten Trends zusammengefasst:

Aus Big Data wird Wide Data

Skalierbare Cloud-Konzepte heben in Big-Data-Umgebungen die limitierenden lokalen IT-Infrastrukturen der Unternehmen auf. Ein großes Thema des Jahres lautet: „Wide Data“. Das heißt, die IT betrachtet verstärkt die fragmentierten, weitverzweigten Datenstrukturen, die durch uneinheitliche oder fehlerhaft formatierte Daten und Datensilos entstanden sind.

So hat sich alleine in den vergangenen fünf Jahren die Anzahl der Datenbanken, die es für unterschiedlichste Datenarten gibt, von rund 160 auf 340 mehr als verdoppelt. Profitieren werden vor allem die Unternehmen, denen es in Zukunft gelingt, Daten in einer Synthese sinnvoll zusammenzuführen.

Datenkompetenz als Service-Leistung

Eine Kombination von Datensynthese und Datenanalyse wird die effektive Nutzung der Daten weiterentwickeln. Wesentlich wird dabei sein, dass die Anwender beim Lesen, Arbeiten, Analysieren und Kommunizieren der Daten Hilfestellungen erhalten.

Dafür müssen die Unternehmen die Datenkenntnisse ihrer Mitarbeiter gezielt fördern, indem sie Partner einsetzen, die Software, Training und auch Support im SaaS-Modell (Software-as-a-Service) offerieren. Dadurch wird nicht nur das Daten-Know-how verbessert, indem DataOps und Self-Service Analytics optimal ineinandergreifen, sondern es kann sich auch ein datengestütztes Entscheiden etablieren.

DataOps und Self-Service Analytics

Data Analytics wird bereits auf der Business-Ebene mit modernen Self-Services-Tools erfolgreich praktiziert. Für das Datenmanagement steht jetzt mit den DataOps zusätzlich eine agile Lösung parat. Damit sind die Anwender nun in der Lage, mit automatisierten und prozessorientierten Technologien die Geschwindigkeit und Qualität des Datenmanagements deutlich zu steigern.

Die Basis dafür bilden Technologien wie zum Beispiel Echtzeitdatenintegration, Change Data Capture (CDC) und Streaming Data Pipelines. Auf diese Weise bilden DataOps im operativen Datenmanagement und Self-Service Analytics auf der Business-Seite einen fließenden Prozess über die komplette Informationswertschöpfungskette. Mit DataOps und Self-Services, einem der großen Trends für 2020, lassen sich unternehmensweit verstreute Daten effektiv nutzen.

„Shazamen“ von Daten

Obwohl Data Analytics in den vergangenen Jahren erstaunliche Fortschritte verbuchen konnte, sehen Experten den größten Meilenstein noch vor uns: das Shazamen von Daten. Was bislang als beliebte App am Handy unter „Shazam“ bekannt war, die laufende Songs erkannte und Informationen dazu bereitstellte, wird nun auf weitere Bereiche ausgedehnt. Das heißt, 2020 werden wir Shazamen als Datenlösungen auch für Unternehmen erleben. Algorithmen werden die Analysesysteme dabei unterstützen, Datenmuster und Anomalien zu identifizieren sowie neue Daten für weitere Analysen zu optionieren.

Die Experten sind sich sicher: Datenlösungen werden in Zukunft nicht mehr nur Suche, Dashboards und Visualisierung umfassen, sondern es wird alternative Eingabetechniken geben, die mit digitalen Geräten kommunizieren wie etwa über Bewegungen oder auch Sensoren. Im Shazamen liegen enorme Chancen, wobei es aber ebenso Gefahren des Missbrauchs birgt.

Verbesserte Sprachverarbeitung

Big Data, KI, IoT und maschinelles Lernen (ML) ermöglichen eine erweiterte Dimension der menschlichen und technologischen Interaktion. Mithilfe von Natural Language Processing (NLP) sind dann Programme in der Lage, die menschliche Sprache so zu verstehen, wie sie tatsächlich gesprochen oder geschrieben wird.

Da über NLP die Inhalte in menschlicher Sprache kommuniziert werden, können sogar ungeübte Anwender mit solchen intelligenten Systemen interagieren. NLP ist unter anderem auch ein leistungsfähiges Tool, um die Bedürfnisse von Kunden zu identifizieren und daraus Produkte und Dienstleistungen zu entwickeln.

Intelligente Metadatenkataloge

Metadaten sind strukturierte Daten, die Informationen über Merkmale anderer Daten beinhalten. Damit lassen sich sehr große Datenmengen und Rohdaten in den verteilten und vielfältigen Datenbeständen lokalisieren, erfassen, synthetisieren und vor allem automatisiert weiterverarbeiten.

Hierzu kommen intelligente, auf maschinellem Lernen basierende Funktionen für die Datenaufbereitung, für die Zusammenarbeit bei Datenprojekten und für einen optimierten Arbeitsablauf zum Einsatz. Da der gesamte Kontext erhalten bleibt, sind die Informationen besser zugänglich und können ebenso für zukünftige Projekte genutzt werden.

Aufgrund steigender Nachfrage für intelligente Metadatenkataloge werden sie 2020 zunehmend mit KI ausgestattet, um so eine aktive, adaptive und schnellere Datenbereitstellung zu realisieren.

Erforschung des Klimawandels und des Universums

Big-Data-Lösungen können einen entscheidenden Beitrag zur Debatte um den Klimawandel leisten. Wobei das Datenmaterial von meteorologischen Instituten, verschiedenen Forschungseinrichtungen für Geowissenschaften oder Teilchenphysik bis hin zu Datensätzen aus der Ozeanforschung stammen kann. Damit Ereignisse vom Urknall bis zum gegenwärtigen Zeitpunkt des Universums approximiert werden können, sind unvorstellbar große Mengen an Inputs einzubeziehen.

Echtzeitanalysen werden interessanter

Datenlastiges Streaming beziehungsweise Live-Datenanalyse-Streamings werden 2020 deutlich an Zugkraft gewinnen – nicht nur für große, global relevante Sportarten. So könnte die Finanzwelt Petabytes an Live-Daten durch komplizierte Netzwerkverbindungen leiten und mit unzähligen anderen Geräten kommunizieren.

Aber auch Organisationen, die kritische Forschungen zu Erdbeben, El Niño und anderen Naturkatastrophen überwachen, werden zunehmend auf Big Data mithilfe von Roboter-Prozessautomatisierung (RPA), KI und maschinellem Lernen angewiesen sein, um zuverlässige Vorhersagen zu erhalten.

Simulation von Ölfeldern

Die Mineralölindustrie gehört zu den großen Profiteuren der Big-Data-Analysen und einer beispiellosen Rechenleistung. Ölfirmen erhalten dadurch ein besseres Instrumentarium, um enorme Datenmengen zu evaluieren, die von seismischen Sensoren erzeugt werden.

High-Fidelity-Bildgebungstechnologien und neue Algorithmen zur Modellsimulation bieten wesentlich mehr Klarheit hinsichtlich des Potenzials der untersuchten Reservoirs. Mit präziseren Informationen minimieren sie das Risiko, Ölreservoirs falsch zu identifizieren sowie abzubilden, und optimieren gleichzeitig die Management- und Betriebskosten.

(ID:46358992)

Über den Autor