Big-Data-Speicherung und Klimaschutz Nachhaltiges Datenmanagement – eine Herausforderung für Unternehmen

Autor / Redakteur: Lars Hermanns* / Dr. Jürgen Ehneß

Daten sind „ein Schatz wie Gold und Rohstoffe“ – so die Metapher von Kanzleramtschef Helge Braun und Staatsministerin Dorothee Bär bei der Präsentation der neuen Datenstrategie zu Beginn dieses Jahres. Die Bundesregierung beziffert das Wertschöpfungspotenzial der Datenökonomie in Deutschland auf 425 Milliarden Euro bis 2025.

Firma zum Thema

Am Anfang eines nachhaltigen Datenmanagements steht die Datenanalyse.
Am Anfang eines nachhaltigen Datenmanagements steht die Datenanalyse.
(Bild: Copyright (C) Andrey Popov / Nagarro ES)

Dabei entsteht dieser Wert nicht dadurch, dass Daten überhaupt erzeugt, gespeichert und archiviert werden. Das geschieht quasi von selbst und ist dank neuer und innovativer Technologien einfacher und kostengünstiger denn je. Die Kunst besteht vielmehr darin, aus den Daten wertvolle Erkenntnisse zu gewinnen.

Das gelingt bisher nur mittelmäßig. Hochrechnungen zufolge bleiben hierzulande derzeit rund 90 Prozent aller Daten ungenutzt. Die Studie „Datenwirtschaft in Deutschland“ vom Institut der deutschen Wirtschaft (IW Köln) im Auftrag des Bundesverbands der Deutschen Industrie bestätigt das. Danach weisen nur 28 Prozent der befragten Unternehmen einen hohen Digitalisierungsstand hinsichtlich des eigenen Datenmanagements auf („Data Readiness“). Das ist nicht nur schade für die Unternehmen, denen dadurch viel wirtschaftliches Potenzial entgeht. Das sinnlose Sammeln und Speichern von Daten schadet auch der Umwelt. Dark Data verursacht weltweit 5,8 Millionen Tonnen CO2 pro Jahr. In Zeiten des Klimawandels ist das eine enorme Belastung. Nach den Databerg-Studien von Veritas ist Deutschland einer der Spitzenreiter bei Dark Data.

Daten am Grad ihrer Nachhaltigkeit analysieren und vorsortieren

Auch wenn die Datenmengen immer weiter zunehmen werden, bedeutet das nicht zwangsläufig, dass auch der Aufwand für Übertragung, Speicherung, Aufbereitung und Auswertung der Daten steigen muss. Die Herausforderung liegt darin, eine Datenstrategie zu entwickeln, durch die Big Data Analytics effektiver, effizienter und umweltschonender wird.

Die Basis wird dabei schon bei der Erhebung gelegt. Dort sollten die Daten mithilfe von Algorithmen und Methoden der Künstlichen Intelligenz analysiert und nach Relevanz vorsortiert werden: Welche Daten werden in Echtzeit oder für die künftige Anwendung benötigt, welche nur temporär und welche überhaupt nicht? Nicht benötigte Daten sollten sofort gelöscht werden. Alle anderen Daten, ob Hot, Warm oder Cold Data, können gespeichert werden.

Der Speicherort richtet sich dabei nach dem Anwendungsfall. Ob dabei Speicher aus On-Premises-Installationen, Private-Cloud-Angebote, Hybride Szenarien oder Public-Cloud-Angebote genutzt werden, ist aufgrund der individuellen Anforderungen sehr spezifisch.

Die richtigen Speicher je nach Datenart

Cold Data, die selten oder gar nicht mehr genutzt, aus rechtlichen Gründen aber archiviert werden, speichern Unternehmen auf günstigen, ständig zugreifbaren und konsistenten Object Storages. Data-Retention-Algorithmen stellen dabei die Konsistenz auch nach Jahren der Speicherung sicher. Für Warm Data eignen sich durch Cache unterstützte, drehende SAS-Festplatten oder SSDs. Durch intelligente Storage-Systeme ergibt sich hieraus ein performanter, umfangreicher sowie kostengünstiger Speicherpool, der alle I/O-Anforderungen bedienen kann.

Die Anforderungen für Hot Data werden über hoch performante In-Memory-Datenbanken realisiert. Durch die zentrale und spaltenorientierte Architektur wird die maximale I/O erreicht. In den Bereichen IoT, Virtual Reality oder Machine Learning, die eine hohe Performance erfordern, arbeiten Flash-Speicher sicher, zuverlässig und schnell. Zudem ist die Technologie besonders energieeffizient und damit sparsam.

Neues eBook

Speicher-Technologien im Vergleich

HDD, Flash & Hybrid: Der passende Speicher für jeden Einsatz

eBook HDD, Flash und Hybrid
eBook HDD, Flash & Hybrid
(Bildquelle: Storage-Insider)

In diesem eBook lesen Sie, welche verschiedenen Speicher es gibt und welche Vor- und Nachteile diese haben. Inhalt:

# Der passende Speicher für jeden Einsatz - HDD, SSD und Tape
# HDDs: Heimvorteil und neue Technologien - Festplatten
# Flash-SSDs & Co.: wie ein geölter Blitz - Flash-Speicher
# Storage-Arrays unter die Haube geschaut - SSD, HDD und Hybrid
# Tape: die Kunst der Langzeitarchivierung - Bandlaufwerke


>>> eBook „HDD, Flash & Hybrid: Der passende Speicher für jeden Einsatz“ downloaden

Bis vor ein paar Jahren war Flash zehnmal teurer als herkömmliche Festplatten, mittlerweile profitieren Unternehmen von sinkenden Wartungs-, Support- und Energiekosten. Das Problem: Nivellieren sich die Kosten für die verschiedenen Speichermedien, machen sich Unternehmen nicht mehr die Mühe, Daten von Hot nach Warm und von Warm nach Cold zu sortieren. Im schlechtesten Fall bleiben Daten in einem kostengünstigen Speicher mit hohem Energieverbrauch liegen.

Big Data und Klimaschutz – eine strategische Frage

Die Klassifizierung von Daten in „geschäftskritisch“, „ROT“ (Redundant, Obsolete, trivial) und „Dark Data“ sowie die Bestimmung von Archivierungs- oder gar automatischen Löschszenarien sind Projektbestandteile, die Unternehmen aus Budgetgründen gerne ausklammern. Statt für eine vernünftige Daten(-haltungs-)strategie wird Geld für Datenbank- oder Servererweiterungen ausgegeben – nur um weiterhin Daten zu speichern, von denen niemand weiß, ob und wofür sie benötigt werden. Selbst wenn neuartige Speicherkonzepte wie DNA-Speicher in einigen Jahren verfügbar sein sollten: Dann wird zwar die Speicherung weniger Energie erfordern, die Analyse der Daten aber exponentiell zur gestiegenen Datenmenge umso mehr Energie verschlingen. Im Sinne des Klimaschutzes sollten Unternehmen eine unternehmensweite, verbindliche Richtlinie zum Datenmanagement etablieren und diese Aufgabe fest auf C-Level-Ebene verankern.

Big-Data-Dashboard.
Big-Data-Dashboard.
(Bild: Nagarro ES)

Ein wichtiger Bestandteil dieser Strategie sollte auch das Thema der verarbeitenden Software sein. Viele Unternehmen betreiben zwar nur ein ERP- beziehungsweise ein operatives System, aber mehrere Analysesysteme. Diese Analysesysteme arbeiten häufig redundant. Das geht nicht nur zulasten des Klimas, sondern auch wertvoller Personalkapazitäten. Denn der Aufwand für Einführung und Betrieb einzelner Systeme ist erfahrungsgemäß größer als gedacht. Zudem verwirren unterschiedliche KPIs, Analysen und Messverfahren die Anwender mehr, als dass sie Klarheit schaffen. Wir empfehlen daher, vor der Investition in neue Big-Data-Analysesysteme folgende Aspekte zu hinterfragen: Wird die Entscheidung zentral getroffen? Passen die Systeme zur Unternehmensstrategie? Stellen sie eine sinnvolle Ergänzung zur bestehenden Ausstattung dar? Stehen die Kosten für die Anschaffung und den Betrieb von Hardware in Relation zum ökologischen Fußabdruck?

Klimaschonendes Datenmanagement umsetzen

Zusammengefasst lässt sich sagen: Unternehmen, die ihre Daten klimaschonender managen wollen, sollten strukturiert vorgehen und nicht am falschen Ende sparen. Identifizieren Sie alle Datenquellen und versuchen Sie, die Datenflüsse und -bestände in Ihrem Unternehmen besser zu verstehen. Data Mapping und Data Discovery können dabei helfen, auch Dark Data zu identifizieren. Der Einsatz von Software und künstlicher Intelligenz eignet sich, um große Datenmengen automatisch zu analysieren, vorzusortieren und zu verarbeiten. Daten, denen Sie keinen Wert zuordnen, können Sie löschen. Stellen Sie entsprechende Richtlinien auf, die auch Compliance-Regeln wie der DSGVO entsprechen. Grundsätzlich sollten Daten immer nur zweckgebunden gespeichert werden. Je nach Datentyp und Anwendungsfall stehen dafür zahlreiche moderne und energieeffiziente Speichermedien zur Verfügung. Das übergeordnete Ziel sollte lauten, die Datenmenge zu reduzieren!

Setzen Unternehmen diese Maßnahmen um, wird Big Data nicht zum Umweltsünder, sondern zum Klimaretter. Vorbilder gibt es genug: So nutzt die NASA aktuelle und historische Messwerte, um die Eisschmelze des größten Gletschers in Europa, des Vatnajökull auf Island, zu dokumentieren, zu analysieren, Muster zu erkennen und Vorhersagen zu treffen – um folglich Gegenmaßnahmen einleiten zu können. Das wird auch Zeit: Bis 2050 möchte sich die EU zum weltweit ersten klimaneutralen Kontinent entwickeln. Damit der „Green Deal“ gelingt, müssen Daten dringend nachhaltiger-, ressourcen- und energiesparender werden und moderne Speichermedien wie DNA-Speicher stärker eingesetzt werden.

Lars Hermanns, Principal in der Line of Business Analytics, Nagarro ES.
Lars Hermanns, Principal in der Line of Business Analytics, Nagarro ES.
(Bild: Nagarro ES)

*Der Autor: Lars Hermanns, Principal in der Line of Business Analytics bei Nagarro ES, in Zusammenarbeit mit Benedikt Bachhöfer, Teamlead Infrastructure Services, Nagarro ES

Hier noch ein Hinweis von Nagarro auf eine Online-Konferenz im November 2021:

Save the date: Erfahren Sie mehr zum Thema SAP Analytics – wie Sie Daten richtig nutzen, wertvolle Erkenntnisse sammeln und vernetzen, automatisiert und schnell. Sichern Sie sich jetzt schon ein Ticket für unsere Analytics Summit im November 2021 – jetzt registrieren.

(ID:47430918)