Mobile-Menu

Neue Anforderungen benötigen neue Speicher-Architekturen Patchwork hat ausgedient

Ein Gastbeitrag von Susanne Kummetz* 5 min Lesedauer

Anbieter zum Thema

Steil anwachsende Datenvolumina, rasante Änderungen bei den Business-Anforderungen und die neuen KI-Lösungen sind mit klassischen Architekturen nicht mehr beherrschbar. Gefordert sind Storage-Plattformen, die sowohl alle Technologien als auch alle Nutzungsformen optimal unterstützen.

Neben neuen technischen und geschäftlichen Anforderungen sind vor allem die rasant wachsenden Datenmengen ein Problem für veraltete IT-Architekturen.(Bild:  Midjourney / KI-generiert)
Neben neuen technischen und geschäftlichen Anforderungen sind vor allem die rasant wachsenden Datenmengen ein Problem für veraltete IT-Architekturen.
(Bild: Midjourney / KI-generiert)

Das weltweite Datenvolumen steigt weiter an. Schätzungen besagen, dass es Ende dieses Jahres knapp 200 Zettabytes sein werden. Viele Unternehmen sind mit ihren veralteten IT-Architekturen und -Prozessen den daraus resultierenden Herausforderungen nicht gewachsen. Beispielsweise sind noch immer viele Appliances im Einsatz. Also „unintelligente“ Systeme, die nicht an die Cloud angebunden sind, keinen Desaster- oder Ransomware-Schutz bieten und auch über keine De-Duplizierung und Datenkomprimierung verfügen.

Dabei ist die Datenmenge nur ein Problem von vielen. Ein wesentlich größeres Problem für althergebrachte Strukturen sind neue technische und geschäftliche Anforderungen. Dazu zählen globale Bereitstellung, Datenportabilität, Kubernetes-Unterstützung, generative KI, komplexe Datenanalysen und ein einheitliches Datenmanagement über verschiedene Bereitstellungsumgebungen hinweg. Erschwerend hinzu kommt der allgemeine Mangel an qualifizierten Storage-Experten, der vor allem beim Mittelstand zu erheblichen Defiziten bei den Storage-Architekturen führt.

Das alles bedeutet, dass der weit verbreitete Ansatz, einzelne Speichersysteme aufgrund der Zugriffsprotokolle, den Leistungsstufen, den Medientypen oder der Kapazität zu beschaffen, schlicht nicht mehr funktioniert. Benötigt werden heute Architekturen für diverse Standorte, flexible Business-Unterstützungen, modulare Skalierung. Zusammengefasst: Unternehmen benötigen eine optimale Infrastruktur mit nahtlosen Übergängen zwischen Edge/OT, On-Premises sowie Private und Public Cloud.

Die Zukunft gehört den Enterprise-Storage-Plattformen

Bei diesem Wandel kommt den Storage-Anbietern eine zentrale Rolle zu. Mit einem breiten Spektrum an Spitzentechnologien und anpassungsfähigen Nutzungsmodellen können sie die IT-Verantwortlichen beim Übergang auf die neuen Architekturen unterstützen. Im Mittelpunkt steht dabei der Übergang von isolierten Speichersystemen zu einer modernen Infrastrukturplattform, bei der sowohl die technologischen als auch die geschäftlichen Anforderungen berücksichtigt werden.

Gartner definiert eine solche Enterprise-Storage-Plattform als eine modulare, softwaredefinierte, skalierbare und programmierbare Lösung, mit der vielfältige Datendienste und unterschiedliche Workloads bewältigt werden können. Diese Plattformen sind multiprotokollfähig, bieten intelligentes Infrastrukturmanagement, eine optimale Leistung und integrierte Sicherheitsmaßnahmen. Durch den Wegfall starrer, proprietärer Array-Lösungen und hybride IT-Operationen lassen sie sich nahtlos in jedes Betriebsmodell und in jede IT-Umgebung einbinden. Eine plattformnative Architektur adressiert viele IT-Probleme und verbessert die Wirtschaftlichkeit der gesamten Infrastruktur.

Gartner-Kunden berichten über Produktivitätssteigerungen von bis zu 40 Prozent beim Einsatz solcher Plattformen. Gleichzeitig werden damit die Kosten für Speichererneuerungen, Kapazitätserweiterungen und/oder Austauschaktivitäten um bis zu zwei Drittel reduziert. Entsprechend groß ist die Marktresonanz. Gartner prognostiziert, dass bis 2028 über 50 Prozent der für Infrastruktur und Betrieb Verantwortlichen die neuen Enterprise-Storage-Plattformen einsetzen werden.

Hohe technologische Anforderungen

Um den Leistungsumfang der neuen Storage-Plattformen zu erbringen, müssen die zugrundeliegenden Technologien eine Reihe an Anforderungen erfüllen. Dazu gehört beispielsweise ein hoher Grad an Modularität. Darunter versteht man, dass jedes System aus kleinen, in sich geschlossenen und austauschbaren Modulen oder Komponenten besteht, die unabhängig installiert, kombiniert, ersetzt und skaliert werden können. Das bietet maximale Flexibilität und eine nahtlose Integration in die gesamte Infrastruktur. Darüber hinaus ermöglicht es eine verbesserte Kapazitätsplanung und eliminiert Ausfallzeiten.

Aufwendige, da komplexe Systemerweiterungen, die typischerweise mit monolithischen Systemen verbunden sind, werden obsolet. Darüber hinaus gibt es den Trend zum verstärkten Einsatz von SSDs. Mit QLC-NAND sowie den neuen Formfaktoren und Schnittstellen (EDSFF, PCIe 6.0/7.0) sinken die Kosten, und die Kapazitäten und Einsatzfelder steigen an. Das kommt vor allem den Anwendungen zugute, bei denen geringe Latenz und hohe IOPS wichtig sind, etwa bei KI oder Edge-Computing.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Data-Storage und -Management

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Beispiel: HPE

Ein gutes Beispiel für eine solche Storage-Plattform sind Alletra-Systeme von HPE, die die verschiedenen Anforderungen abdecken. Das reicht von Primär-Workloads über Archivierung bis hin zu Cloud- und Hybrid-Szenarien. Sie bieten eine Multiprotokoll-Architektur und sind für File-, Block- und Object-Storage geeignet. Ein weiteres besonderes Alletra-Feature ist die Modularität. HPE spricht hier von einer „disaggregierten“ Technologie. Das heißt, man kann durch den Austausch von einzelnen Modulen die Kapazität und/oder die Performance völlig unabhängig voneinander skalieren – und somit die Plattform nahtlos an jede neue Geschäftsanforderung anpassen. Dieses Leistungsspektrum kommt im Markt gut an, denn die Alletra MP B10000 ist das weltweit am schnellsten wachsende All-Flash-Block-Storage-System.

Storage-Plattformen sind nur ein Teil des Ganzen

Der Trend zur Plattform hat sich inzwischen auf die gesamte IT-Infrastruktur ausgeweitet. Nicht nur Storage, sondern auch Server, Virtualisierung, Netzwerke sowie die gesamten Operations werden zunehmend über eine einzige Management-Plattform bereitgestellt. Hier ist jedoch auf die Interoperabilität zu achten: Viele gute Einzelkomponenten sind häufig nicht mit anderen kompatibel. Ein sicherer Weg ist es, alle Systeme „aus einer Hand zu nehmen“, sodass diese friktionslos ihre maximale Leistung erbringen können.

HPE ist ein solcher Full-Stack-Anbieter, der die gesamte IT-Infrastruktur schlüsselfertig liefern kann, beispielsweise mit der Private Cloud Business Edition, die Zero-Trust-Sicherheit mit HPE Morpheus gewährleistet, oder aber auch der Private Cloud AI. Ein gutes Beispiel dafür ist Greenlake, über das nicht nur Storage, sondern auch Computer, Netzwerke und die Cloud-Anbindung, also der gesamte Stack, bereitgestellt werden können. Greenlake unterstützt auch einen weiteren starken Trend in der Infrastruktur-Nutzung: die verbrauchsabhängige Abrechnung (Consumption Based Model, CBM), die HPE seit 2018 für alle Systeme anbietet. Die Vorzüge sind hinlänglich bekannt: Keine Vorabinvestitionen (Capex), besserer ROI durch Optimierung des Rechen- und Speicherbedarfs sowie elastische Skalierung entsprechend der Workload-Anforderungen. Inzwischen erlauben autonome, KI-basierte Management-Funktionen eine kontinuierliche Optimierung und verbesserte Supportfunktionen.

Susanne Kummetz, Leiterin Data Services & Storage bei HPE in Deutschland.(Bild:  Ulrich Metz/HPE)
Susanne Kummetz, Leiterin Data Services & Storage bei HPE in Deutschland.
(Bild: Ulrich Metz/HPE)

Die Zeit für Nischenangebote geht zu Ende. Die Kunden erwarten eine As-a-Service-Storage-Plattform, die nicht nur ein zentrales Management für Block-, File- und Object-Workloads erlaubt. Darüber hinaus muss das Portfolio Anforderungen an Cybersecurity und KI erfüllen.

* Die Autorin: Susanne Kummetz, Leiterin Data Services & Storage bei HPE in Deutschland

Aktuelles eBook

Speichern am Netzwerkrand: Edge-Storage

eBook Edge-Storage
eBook „Edge-Storage“
(Bild: Storage-Insider)

Speicherkapazitäten am Netzwerkrand werden immer häufiger genutzt, denn die Zahl der Geräte, die am Edge eingesetzt werden, vervielfacht sich. Ein Edge-Storage kann dabei vielfältig verwendet werden.

Die Themen im Überblick:

  • Einsatzbereiche: Der Netzwerkrand ist (fast) überall
  • Technologien bei der Edge-Storage-Nutzung
  • Lösungen, Produkte und Kostenaspekte von Edge-Storage

(ID:50665753)