Mobile-Menu

Eine Storage-Dekade im Blick Herausforderungen bei der Datenspeicherung 2014 und heute

Ein Gastbeitrag von Federica Monsone* 14 min Lesedauer

Anbieter zum Thema

Einstein wusste, dass die Wahrnehmung, wie schnell die Zeit vergeht, von der Perspektive des jeweiligen Beobachters abhängt. Und für einen Hund mag sich ein Jahr etwa genauso anfühlen wie die Spanne von sieben Jahre für einen Menschen. In der Datenspeicherungsbranche jedenfalls vollziehen sich Veränderungen viel schneller als in vielen anderen Bereichen menschlicher Aktivitäten.

Die Anforderungen an die Datenspeicherung in Unternehmen haben sich in den vergangenen zehn Jahren teilweise stark verändert.(Bild:  ©rcphotostock via Canva.com)
Die Anforderungen an die Datenspeicherung in Unternehmen haben sich in den vergangenen zehn Jahren teilweise stark verändert.
(Bild: ©rcphotostock via Canva.com)

Wir haben ein Expertengremium gebeten, die Herausforderungen der Datenspeicherung und -verwaltung, mit denen Unternehmen vor zehn Jahren konfrontiert waren, mit denen von heute zu vergleichen. Wir haben das Gremium auch gebeten, die Art und Weise zu erörtern, in der die aktuelle Speicherlandschaft und ihre zunehmend komplexen Herausforderungen die Technologieentwicklungen beeinflussen.

Was damals war, was heute ist: Speicheranforderungen im Wandel

Mehr als ein Experte auf unserem Podium gibt zu Protokoll, dass die Herausforderungen bei der Datenspeicherung, mit denen IT-Organisationen im Jahr 2014 konfrontiert waren, denen von heute sehr ähnlich sind – zumindest auf hohem Niveau. „Die Herausforderungen haben sich nicht sehr verändert, auch wenn sich die Technologie geändert hat. Die größte Herausforderung war wahrscheinlich der Umgang mit den ständig steigenden Anforderungen an die Speicherkapazität. Die zweite Herausforderung war der Schutz der Daten. Auch wenn die Intensität der Ransomware-Angriffe nicht so hoch war wie heute, war der Datenschutz ein wichtiges Thema. Die dritte Herausforderung bestand darin, dass nicht genügend Mitarbeiter zur Verfügung standen, um das Speicheraufkommen zu bewältigen. Dieses Personalproblem hat sich seitdem nur noch verschlimmert“, so Randy Kerns, Senior Strategist und Analyst beim Analystenunternehmen Futurum Group.

Brock Mowry, CTO & VP of Products beim Speichersystemanbieter Tintri, stimmt dem zu, fügt aber eine wichtige Einschränkung hinzu: „Die Herausforderungen sind im Grunde die gleichen wie vor zehn Jahren, aber der Umfang und das Ausmaß dieser Herausforderungen haben sich dramatisch verändert“, sagt er.

Knackpunkt Speicherkapazität: Datenwachstum und kein Ende

Erfane Arwani, CEO von Biomemory, einem Start-up-Unternehmen, das sich auf die Speicherung und Synthese von DNA spezialisiert hat, betont die Schwierigkeiten, mit dem Datenwachstum im Jahr 2014 Schritt zu halten. „Unternehmen kämpften damit, das exponentielle Datenwachstum mit Technologielösungen zu bewältigen, die noch nicht für große Datenmengen optimiert waren.“ Arwani weist darauf hin, dass die Festplattenkapazitäten von Unternehmen vor zehn Jahren nur zwischen 1 TB und 4 TB lagen. In der Dekade seither sind die Festplattenkapazitäten sprunghaft angestiegen. Festplatten mit der höchsten Kapazität können heute 30 TB verarbeiten. Gleichzeitig hat die Nutzung von Flash-Speichern in Rechenzentren stark zugenommen, und die größten Flash-Laufwerke für Unternehmen verfügen jetzt über eine Kapazität von über 60 TB.

Im Jahr 2014 konzentrierten sich Unternehmen noch auf die Speicherung On-Prem und nutzten öffentliche Cloud-Speicherdienste in geringerem Umfang als heute. „Es ging um die Wahl zwischen NAS und SAN, und Cloud-Lösungen waren mit Eisbädern vergleichbar – vorteilhaft, aber nicht für jeden geeignet“, so Ferhat Kaddour, Vice President of Sales and Alliances bei Atempo, einem Anbieter von Datenschutz- und Verwaltungs-Software. Die Sicherstellung einer ausreichenden Gesamtkapazität für ein Unternehmen sei eine vielschichtige Aufgabe. „Die Herausforderung der Skalierbarkeit bestand in der Vorhersage des künftigen Speicherbedarfs, der Optimierung der Speichernutzung sowie der Implementierung effektiver Strategien für die Speicheraufteilung“, so Drew Wanstall, Vice President of Business Development bei Scale Logic, einem Anbieter von Speicher- und Workflow-Infrastrukturen für die Medienproduktion.

Heute wächst die Datenmenge immer noch rasant. „Es ist interessant zu sehen, wie die Daten in einem verrückten Tempo wachsen“, sagt Enrico Signoretti, Vizepräsident für Produkte und Partnerschaften bei Cubbit, einem Anbieter geodistributiver Cloud-Speichersysteme. Valéry Guilleaume, CEO von Nodeum, einem Anbieter von Datenverwaltungs-Software, nannte einige der neuen Datenquellen, die dieses Wachstum vorantreiben und bereits die Ära der so genannten Big Data eingeläutet haben: „Heute sind es nicht mehr nur die Nutzer, die Daten erzeugen, sondern auch die Systeme, die in den einzelnen Branchen entwickelt werden, etwa datenerzeugende Autos, elektronische Mikroskope, Blade-Scanner oder auch seismische Sensoren. Diese neuen Quellen erzeugen Daten mit einer Geschwindigkeit, die mit den datenerzeugenden Quellen von vor zehn bis fünfzehn Jahren nicht vergleichbar ist.“

Die Schwierigkeit, die physische Speicherkapazität zu erhöhen, um mit dem Datenwachstum Schritt zu halten, wurde jedoch durch die zunehmende Nutzung öffentlicher Cloud-Speicher sowie durch Verbesserungen in der Datenspeichertechnologie zumindest in gewissem Maße gemildert. Unter den technologischen Entwicklungen der letzten zehn Jahre ist vor allem der enorme Preisverfall bei Flash-Speichern zu nennen, der zu einer weit verbreiteten Nutzung von Flash-Speichern in Unternehmensrechenzentren geführt hat. „Die Kapazitätsnachfrage hält an, aber der Umfang und die Leistung von Flash ermöglichen eine größere Konsolidierung und weniger physische Systeme, einen geringeren Energie-, Kühlungs- und Platzbedarf sowie einfachere Mittel zur Leistungssteigerung“, so Kerns. „Die Technologie zur Lösung von Problemen ist verfügbar und effektiver als vor zehn Jahren.“

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Data-Storage und -Management

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Auch wenn andere Podiumsteilnehmer der Meinung sind, dass die Skalierbarkeit von Speichern nach wie vor ein großes Problem darstelle, wird Kerns’ Ansicht von anderen Branchenanalysten auf unserem Podium geteilt. „Mehr Daten machen die Verwaltung zwar komplexer, aber weniger komplex als in der Vergangenheit. Speicherlösungen sind heute viel besser skalierbar als früher. Die Datenexplosion, insbesondere im Bereich der künstlichen Intelligenz, birgt die Schwierigkeit, die richtigen Daten zu finden, sie in das richtige, saubere Format zu bringen sowie sie schnell verfügbar zu machen. Die Herausforderung heute liegt nicht so sehr in der Speicherung von Daten, sondern vielmehr in deren Nutzung“, so Scott Sinclair, Practice Director beim Analystenunternehmen Enterprise Storage Group (ESG).

Datensicherheit, Datenschutz, Datenmobilität – moderne Anforderungen

David Norfolk, Praxisleiter beim Analystenunternehmen Bloor Research, sagt: „Die technischen Probleme von vor zehn Jahren sind weitgehend verschwunden. Speicher sind heute billig, zuverlässig und einfach zu skalieren. Aber das Speichermanagement – einschließlich des Bedrohungsmanagements – stellt heute einen Kostenfaktor dar.“

Zu den von Norfolk angesprochenen Bedrohungen gehören auch Cyberangriffe, die nach Aussage mehrerer Experten auf unserem Podium in den letzten zehn Jahren erheblich an Zahl und Intensität zugenommen haben. „Die Sicherheit ist heute eindeutig die größte Herausforderung für die Datenspeicherung. Zwar gab es schon immer Sicherheitsbedrohungen durch böswillige Akteure und Nutzer, aber die heutigen Probleme sind in der Tat schwieriger und kostspieliger zu bewältigen, was auf die gut organisierten und finanzierten Ransomware-Akteure zurückzuführen ist, die oft staatlich unterstützten Gruppen angehören“, so Paul Speciale, Chief Marketing Officer beim Objektspeicherspezialisten Scality.

„Angesichts des anhaltenden Ransomware-Booms und des Aufkommens bösartiger KI-Tools und As-a-Service-Cybercrime-Modelle steht der Datenschutz heute an der Spitze der Herausforderungen im Storage-Bereich. Die Zahl der Sicherheitsverletzungen nimmt nicht nur zu, sondern auch ihre Schlagkraft mit Blick auf verbesserten Taktiken (Mehrfacherpressung) oder den in letzter Zeit beobachteten Dual-Strain-Angriffen“, so Sergei Serdyuk, Vice President of Product Management bei Nakivo, einem Anbieter von Lösungen für Backup, Ransomware-Schutz und Disaster Recovery.

Das ist nicht die einzige Veränderung in der IT-Landschaft, welche die Kosten für die Speicherverwaltung in die Höhe getrieben hat. Vor zehn Jahren wurde das Datenwachstum durch die allgemeine Digitalisierung der Wirtschaft und den zunehmenden Einsatz von Analysen angetrieben. Jetzt wird es auch durch die Notwendigkeit der Datenerfassung zum Trainieren von KI- und maschinellen Lernsystemen und, wie Guilleaume beschreibt, durch das Wachstum des Internets der Dinge (IoT) als Datenquelle befeuert. Obwohl der Begriff IoT bereits in den 1990er-Jahren geprägt wurde, ist er erst in den letzten zehn Jahren zu einer alltäglichen Realität geworden. Gleichzeitig generieren Unternehmen auch mehr unstrukturierte Daten. Diese machen inzwischen den Großteil der von Unternehmen gespeicherten Daten aus. Im Gegensatz zu strukturierten Daten sind unstrukturierte Daten nicht nach einem vordefinierten Datenbankschema organisiert, was ihre Verwaltung erheblich erschwert.

(ID:50030016)