Suchen

Storage-Trends 2020 Die Basis: eine valide Storage-Strategie

| Autor / Redakteur: Stefan Roth und Marcel Schuster* / Dr. Jürgen Ehneß

Was bringt das Jahr 2020 für den Bereich Storage? Sicher ist: Mit der zunehmenden Digitalisierung steigen die Anforderungen an die Verarbeitung von Daten und somit an die Storage-Umgebungen in Unternehmen. Denn das Datenvolumen wird in den nächsten Jahren voraussichtlich um den Faktor 10 steigen. Und das nicht immer in den bisher bekannten Anwendungsgebieten.

Firma zum Thema

Das rasante Datenwachstum erfordert Storage-Systeme mit einer hohen Skalierbarkeit.
Das rasante Datenwachstum erfordert Storage-Systeme mit einer hohen Skalierbarkeit.
(Bild: © chris noelle - stock.adobe.com)

Im gerade begonnenen Jahr rücken daher Storage-Systeme mit einer hohen Skalierbarkeit bis in den Exabyte-Bereich hinein bei gleichzeitig geringen Kosten sowie einem möglichst langen Lebenszyklus in den Fokus – wie SDS-Lösungen (Software-Defined Storage). Eine SDS-Lösung umfasst x86-Server, ein Netzwerk, das die Knoten verbindet, sowie Storage-Software. Hiermit können Unternehmen eine robuste und sichere, verteilte Storage-Infrastruktur installieren. Sie eignet sich gut für Second-Tier-Storage-Umgebungen, die vorzugsweise zur Ablage unstrukturierter Daten dienen – und diese werden mit Blick auf das Internet der Dinge deutlich zunehmen.

Kostenseitig spricht für eine solche Lösung, dass sich eine SDS mithilfe von Standard-Servern und Open-Source-Software realisieren lässt. Ob im Zusammenhang mit hyperkonvergenten Infrastrukturen (HCI), Common Interfaces (CI) oder Appliances: SDS bringt Vorteile, die mit zunehmender Zeit immer wichtiger werden.

Hybrid für den Mittelstand

Ein anderes Thema sind hybride Storage-Systeme. Vor allem mittelständische Unternehmen werden mit Blick auf die Ablage von Sekundärdaten verstärkt darauf zurückgreifen. Diese beanspruchen einigen Speicherplatz, weshalb bisherige Storage-Lösungen auf lange Sicht eine Kostenexplosion befürchten lassen – was insbesondere den Mittelstand belastet. Eignen sich für Primärdaten nach wie vor in erster Linie Flash-Speicher, also SSDs, so empfiehlt sich gerade für mittelgroße und kleinere Unternehmen insgesamt ein hybrider Ansatz.

In diesem Fall bedeutet das: Festplatten mit möglichst hoher Kapazität und niedrigen Kosten pro Terabyte in Kombination mit SSDs bieten die besten Konditionen für das Speichern von Primärdaten einer- und Sekundärdaten andererseits. Wichtig ist dabei der Einsatz einer intelligenten Auto-Tiering-Software, die sicherstellt, dass die unterschiedlichen Daten auf dem jeweils richtigen Medium gespeichert werden.

Ein weiterer Punkt, der im Zusammenhang mit aktuellen Trends erwähnt werden muss, ist das Thema Non-Volatile Memory Express (NVMe). Dieses auf Performance und Durchsatz getrimmte Übertragungsprotokoll als Ersatz für SCSI wächst auch in den kommenden Monaten und Jahren insbesondere in Verbindung mit SSDs und SCM (Storage Class Memory) weiter.

Dabei kommt es allerdings auf das jeweilige Einsatzszenario an. Zurzeit gibt es noch wenige Applikationen, die NVMe wirklich nutzen können. Das ist nur dort der Fall, wo extrem viele Daten mit niedrigsten Antwortzeiten vorgehalten werden – Daten, die auch in Echtzeit gelesen werden müssen, wie zum Beispiel Sensordaten in Verbindung mit KI-Echtzeitauswertung.

Cloud ist nicht alles

Grundsätzlich geht der Trend klar zur Hybrid-IT. Die Bedeutung der Cloud nimmt zwar flächendeckend zu, es gibt aber nach wie vor Einschränkungen und Bedenken: So scheint die Cloud etwa im Hinblick auf Bandbreite und Latenzzeiten nicht überall geeignet. Auch datenschutzrechtliche Aspekte – Stichwort Personendaten/DSGVO – stehen der Inanspruchnahme von Cloud-Services und -Kapazitäten bisweilen im Weg. Viele Unternehmen möchten die Hoheit über ihre Daten behalten, am besten im eigenen Rechenzentrum. So entgehen sie auch der potenziellen Problematik des „Uncloudings“, also der Rücknahme ihrer Daten aus der Wolke. Das können sie aber nur, wenn sie über eine entsprechende Daten- und Storage-Strategie verfügen.

Relevant in puncto Storage ist nicht zuletzt, dass Daten künftig auch dort vorgehalten werden müssen, wo dies bislang unüblich war: an der Peripherie des Systems, der Edge. Auch hier braucht es eine dezidierte Strategie, welche (hybriden) Ansätze wo zum Einsatz kommen sollen.

Tape wieder im Trend

Trotz aller neuen Ansätze: Etablierte Systeme wie Bandlaufwerke gewinnen insbesondere durch die wachsende Datenflut und den Schutz von Datenbeständen vor Ransomware wieder an Bedeutung, vor allem für mittelständische Unternehmen.

Physische und virtuelle Tape Libraries werden zukünftig verstärkt zum Einsatz kommen. Dazu tragen nicht nur Vorgaben des Gesetzgebers bei. Vielmehr haben Unternehmen erkannt, dass sie Geschäftsdaten für spätere Auswertungen und Langzeitanalysen sichern und archivieren sollten beziehungsweise müssen. Diesen Datenschatz aus der Hand zu geben, wäre im Zeitalter der Digitalisierung höchst fahrlässig. Hier kommen Trends ins Spiel wie Active Archiving. Eine solche Storage-Architektur kombiniert Flash-Speicher, Festplatten, Cloud-Storage-Ressourcen und Tapes sowie weitere Komponenten wie ein virtuelles Dateisystem und eine Datenmanagementlösung.

Fazit

Neue Anforderungen und Ansätze gibt es also reichlich. Eine Storage-Revolution ist dennoch nicht zu erwarten: Etabliertes wird gerade in komplexen Bestandsumgebungen weiter nachgefragt bleiben. Insgesamt sind die Storage-Anforderungen der Unternehmen so vielfältig, dass es keinen allgemeingültigen Trend für alle geben kann. Wichtig aber ist in jedem Fall: Die Basis für alle Überlegungen muss eine valide Storage-Strategie sein.

Checkliste 2020

Eine Checkliste zeigt jene Fragen, mit denen sich Unternehmen und IT-Abteilungen fortan vor allem befassen sollten:

Stefan Roth, Category Management Datacenter Central und Head of Storage in Central Europe bei Fujitsu.
Stefan Roth, Category Management Datacenter Central und Head of Storage in Central Europe bei Fujitsu.
(Bild: argum / Falk Heller)

Marcel Schuster, Director Product Marketing Storage bei Fujitsu.
Marcel Schuster, Director Product Marketing Storage bei Fujitsu.
(Bild: Fujitsu)

  • Wie sieht meine Datenstrategie insgesamt aus? Stichwort: Hybrid-IT!
  • Welche Limitierungen habe ich beim Einsatz der Cloud (Performance, Compliance, „Unclouding“)?
  • Wo ist NVMe sinnvoll, wo reicht Flash, wo genügen Plattenspeicher?
  • Brauche ich künftig Software-Defined Scale-Out-Storage, um wachsende Datenmengen im Griff zu behalten?
  • Wo sind Hyper-Converged-Infrastrukturen sinnvoll?
  • Brauche ich (künftig) Datenhaltung an der Edge?
  • Welche Anforderungen stellen Big Data und KI-Auswertungen (letztere gegebenenfalls in Echtzeit)?
  • Bin ich darauf gefasst, dass angesichts rapide wachsender Datenmengen und einer Vielzahl von Bedrohungen die Investitionen in die Absicherung der Daten enorm steigen werden?

*Die Autoren: Stefan Roth, Category Management Datacenter Central und Head of Storage in Central Europe bei Fujitsu, und Marcel Schuster, Director Product Marketing Storage bei Fujitsu

(ID:46294729)