Storage-Trends

Die Speicherwelt befindet sich im Umbruch

| Autor / Redakteur: Gabriel Chaher* / Tina Billo

Gabriel Chaher ist Vice President Global Market Development bei Quantum.
Gabriel Chaher ist Vice President Global Market Development bei Quantum. (Bild: Quantum)

Daten zu speichern ist die eine Sache. Sich das in ihnen schlummernde Potenzial zu eigen zu machen, eine andere. Hierfür bedarf es einem technisch robustem Rückgrat und vor allem effizienter Storage-Lösungen. Der Einzug des Cloud Computings, das Internet der Dinge oder Methoden der künstlichen Intelligenz verändern die Anforderungen, die an Systeme gestellt werden und erfordern ein Umdenken. Sowohl bei den Herstellern als auch den Unternehmen. Die wichtigsten Entwicklungen im Überblick.

Einst ging es Unternehmen bei der Datenspeicherung im wesentlichen darum, auch im Ernstfall weiterhin zügig auf die für den täglichen Geschäftsbetrieb notwendigen Informationen zugreifen zu können. Oder diese bei Nachfragen stets parat zu haben. Das war"klein-klein" gedacht und nicht vorausahnend, welche Rolle Daten einmal spielen werden.

Inzwischen sind sie das Schmiermittel schlechthin. Einerseits um im gesellschaftlichen Wohl zu handeln. Unter anderem, um Ursachen von Krankheiten auf die Spur zu kommen und auf Patienten abgestimmte Medikamente oder Therapien zu entwickeln, für den Klimawandel bestimmende Faktoren zu ermitteln oder anstehende Naturkatastrophen frühzeitig zu erkennen. Andererseits bietet ihre Auswertung Unternehmen die Möglichkeit, exakt auf die Anforderungen von Kunden abgestimmte neue Produkte und Services anzubieten und sich dadurch einen Wettbewerbsvorteil zu verschaffen.

Doch um diese Möglichkeiten auszuschöpfen, bedarf es mehr denn je einer leistungsfähigen Infrastruktur inklusive passender Speichersysteme und Datenmanagement-Lösungen. Gabriel Chaher, Vice President Global Market Development bei Quantum, erläutert den akuellen Stand und wo die Reise aus seiner Sicht hingeht.

KI: Allzweck-Speicher haben ausgedient

Laut eines Berichts von Business Insider Intelligence sollen 2020 weltweit rund zehn Millionen selbstfahrende Autos auf den Straßen unterwegs sein. Damit sie sich künftig komplett eigenständig ihren Weg durch den Verkehr bahnen können, müssen sich von den in die Fahrzeuge integrierten Kameras und Sensoren gesammelte Daten in Echtzeit nutzen und analysieren lassen. Die Basis hierfür stellen IoT- und KI-Techniken. Dabei gilt, je mehr Daten zur Verfügung stehen, desto mehr und besser lernt das System.

Stand in der Vergangenheit eine unzureichende Rechenleistung der breiten Anwendung von KI entgegen, erweist sich inzwischen Storage als limitierender Faktor. Der Grund dafür ist einfach. Weder können traditionelle Allzweck-Speicherlösungen mit den Leistungsanforderungen Schritt halten. Noch bieten sie zu einem vernünftigen Preis die für eine langfristige Sicherung der Daten und den einfachen Zugriff auf diese benötigten Funktionen. Insofern führt für Unternehmen über kurz oder lang kein Weg an speziellen Speichersystemen und Management-Lösungen vorbei, mit denen sich die großen von vernetzten Geräten und Autos gesammelten Datenmengen bewältigen lassen.

Object Storage: Der Anwendungsfall entscheidet

Objektspeicher sind und bleiben ein heißes Thema. Sie zeichnen sich vor allem durch ihre enorme Skalierbarkeit aus und bieten sich unter Kostenaspekten betrachtet weitaus besser für die langfristige Speicherung großer Datenmengen an, als festplattenbasierte Primärspeicher. Aufgrund dieser Vorteile eroberten sie sich bislang vorrangig bei Anbietern von öffentlichen Cloud-Diensten einen festen Platz in der Infrastruktur. Die Einschätzung, dass sich Object Storage als dominante Speicherlösung in Unternehmen ausbreitet, hat sich hingegen bis heute noch nicht bewahrheitet.

Dies liegt in erster Linie daran, dass sich durch die Kombination eines intelligentes File-Systems mit aktuellen Tape-Techniken in vielen Fällen nach wie vor eine gleichwertige oder gar bessere Leistung zu niedrigeren Preisen erzielen lässt. Dementsprechend ist davon auszugehen, dass Objektspeicher auch künftig in erster Linie für den Aufbau privater Clouds in Erwägung gezogen werden. kostengünstige Tape-Lösungen für die langfristige Archivierung unstrukturierter Daten jedoch weiterhin erst einmal eine gute Alternative bleiben.

Bei Videos geht nichts ohne smarte Speicherlösungen

Videos entwickeln sich für Unternehmen und Organisationen verstärkt zu einem unverzichtbaren Instrument und kommen inzwischen für vielfältige Zwecke zum Einsatz. Beispielsweise in Produktionsstätten zur Verbesserung der Qualitätskontrolle, im Einzelhandel zur Analyse des Kaufverhaltens oder aber in Krankenhäusern, um Mitarbeiter über medizinische Haftungsfragen aufzuklären und zu schulen. Ebenso gewinnen "Erklärvideos" an Beliebtheit, sei es um komplexe Inhalte kompakt zu veranschaulichen oder gar ganze Handbücher zu ersetzen.

Zwar ist das geschriebene Wort weit davon entfernt, an Stellenwert zu verlieren. Dennoch steht zu erwarten, dass sich das Video auf vielen Gebieten als Kommunikationsplattform erster Wahl durchsetzen wird. Dies fordert eine Speicher- und Managementinfrastruktur, die auf die Bewältigung der wachsenden Menge an unstrukturierten Daten ausgelegt ist. Speziell vor dem Hintergrund, dass sich der 4K-Standard als neues hochauflösendes Format bei den Aufnahmen etabliert und dadurch sowohl die Größe der Dateien zunimmt, als auch die an Datenübertragungsraten gestellten Anforderungen.

4K-Videos zu speichern, zu verwalten sowie zuverlässig ohne den Verlust von Einzelbildern und in verzerrungsfreier Qualität bereitzustellen, setzt somit den Einsatz hochperformanter Speicherlösungen voraus, die sich nahtlos in die bestehende Systemlandschaft integrieren lassen.

Tape: Totgeglaubte leben länger

Geht es um die Umsetzung von Backup-Konzepten, spielt Tape inzwischen eine eher untergeordnete Rolle. Anders sieht es hingegen aus, sobald es um die langfristige Speicherung der tagtäglich wachsenden Flut an unstrukturierten Daten geht, die beispielsweise bei der Videoüberwachung, in der Genomik, der wissenschaftlichen Forschung oder in Unternehmen der Medien- und Unterhaltungsindustrie anfallen. Hier braucht es ein robustes und kostengünstiges Archiv, dass durch Kapazität und Leistung punktet und sich optimal in die bestehende Infrastruktur einfügt.

Insofern werden Unternehmen, die Tape bereits aus ihrer Storage-Infrastruktur verbannt haben, vermutlich eine Kehrtwende einlegen. Gleiches gilt für die großen Cloud-Provider, die Speicherdienste anbieten. In diesem hartumkämpften Segment heißt es, sich über den Preis zu behaupten. Storage wird für den Kunden immer billiger. Damit dies für die Unternehmen wirtschaftlich überhaupt geht, bedarf es im Hintergrund extrem kostengünstiger Lösungen. Und so versteckt sich hinter mancher Cloud nicht selten das gute, alte Tape.

Speicherinseln, nein danke

Gemäß Zahlen von IDC sollen die in private und öffentliche Cloud-Infrastrukuren getätigten Ausgaben zwischen 2015 bis 2020 im Schnitt jährlich um etwa 10 beziehungsweise 19 Prozent ansteigen. Ebenso wie Unternehmen bei Investitionen in eigenen Umgebungen eingesetzten Komponenten die Abhängigkeit von einem Hersteller vermeiden, ist damit zu rechnen, dass sie auch im Hinblick auf die Inanspruchnahme von Public Cloud-Diensten eine zweigleisige Strategie verfolgen werden.

Eine zentrale Herausforderung besteht jedoch darin, private mit öffentlichen Clouds so zu verknüpfen, dass sich die verfügbaren Ressourcen nahtlos bereitstellen und Workloads bedarfsgerecht verschieben lassen. Dementsprechend wird die Nachfrage nach Speicher- und Datenmanagement-Lösungen zunehmen, die nicht nur Multi-Site-, sondern auch Multi-Cloud-fähig sind und zudem alle Tools für eine zentrale Verwaltung bieten.

HPC: Eine ganze Branche steht vor neuen Aufgaben

Mit dem Aufkommen von Cluster-Computing, das mittlerweile in so gut wie jedem Unternehmen Einsatz findet, hat die Erstellung von Daten zugenommen, mit deren Hilfe geschäftliche Entscheidungen strategisch besser und schneller umgesetzt werden können. Sei es für neue Investitionen, effizientere Betriebsabläufe, höhere Produktqualität oder verbesserte Kundenservices. Infolgedessen wenden sich Unternehmen vermehrt an Anbieter im Bereich High-Performance Computing (HPC), um mittels Best Practices und neuen Technologien, die steigenden an Leistung, Kapazität und Datenmanagement-Funktionen gestellten Anforderungen bewältigen zu können.

Tatsächlich können Hersteller von HPC-Lösungen Unternehmen bei der Integration von Open-Source-Initiativen unterstützen, ermitteln, wie sich kostengünstige Hardware-Plattformen optimal nutzen oder Daten in einem einzigen Namespace anhand einfachem Tiering verwalten lassen. Allerdings wird es in Zukunft die essentielle Aufgabe von HPC-Anbietern sein, ihren traditionellen Fokus auf binäre Daten auszuweiten und das enorme Wachstum von unstrukturierten Daten anzugehen.

* Gabriel Chaher ist Vice President Global Market Development bei Quantum

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44591693 / Daten)