Speichertrends 2020 Die Rückkehr zur Private Cloud
Das neue Jahr wird spannend. Die größte Herausforderung wird auch 2020 die intelligente Bewältigung des exponentiell wachsenden Datenvolumens darstellen. Um die heranrollende Datenflut möglichst gut zu bewältigen, geht die Jagd nach intelligenten Lösungen weiter. Ziel dieser Lösungen ist es, die Daten zu speichern und schnell nutzbar zu machen.
Anbieter zum Thema

Viele Unternehmen empfinden die Gesamtkosten (Total Cost of Ownership, TCO) für den Betrieb bestimmter Anwendungen in der Public Cloud als zu hoch. Oft fressen diese tatsächlich ihr gesamtes Betriebskostenbudget (Operational Expenditures, OpEx) auf. Deshalb werden Unternehmen 2020 aller Voraussicht nach wieder stärker in Private Clouds investieren. Dadurch sind sie in der Lage, mehrere Anwendungen in einer kostengünstigeren Infrastruktur bereitstellen zu können. Die Nachfrage nach Automatisierungslösungen für die Private Cloud wird wachsen, was sich besonders stark in der Speicherinfrastruktur bemerkbar machen wird.
Zunehmender Kostendruck durch Public-Cloud-Infrastruktur
Wie in den letzten zwei Jahrzehnten oft geschehen, neigt die IT-Community dazu, sich zunächst schnell für neue Technologien zu begeistern, um sich danach enttäuscht von ihnen abzuwenden. Gartner nennt dies treffend den „Trog der Desillusionierung“. 2020 dürfte sich diese Desillusionierung vor allem aus der Diskrepanz zwischen den wirtschaftlichen Versprechungen und der tatsächlichen Wirklichkeit der Public Cloud speisen. Denn CIOs, die ihre neuen Anwendungen in die Public Cloud verlagern, belasten ihre Budgets zusätzlich. Während eine Public Cloud in großen Organisationen zunächst die Agilität der Geschäftsprozesse verbessert, verteuert sie gleichzeitig die Infrastruktur.
Da immer mehr Anwendungen höhere Datenaufnahmeraten erfordern, sind diese Public-Cloud-Implementierungen auf All-Flash-Speicherebenen angewiesen. Das verteuert die Public-Cloud-Alternative zusätzlich. Künftig werden Public-Cloud-Anbieter vermehrt die noch teureren NVMe-Medien (non-volatile memory) für den Flash-Speicher einsetzen. Dies wird zu einem weiteren Preisaufschlag für diese Anwendungen führen. Gleichzeitig drängen CFOs in vielen Unternehmen darauf, sich auf (langfristige) Investitionsausgaben (CapEx) zu konzentrieren und die Betriebskosten zu senken, die mit dem Gebrauch von Public Clouds verbunden sind.
Neuausrichtung auf Private Cloud treibt die Storage-Themen 2020
All diese Entwicklungen werden die CFOs zwingen, die tatsächlichen Gesamtbetriebskosten neu zu bewerten. Dieser Kostendruck wird meiner Meinung nach zu einer Wiederbelebung der Private Cloud führen – jedoch nur, wenn diese eine Agilität bietet, die der von Public Clouds nahekommt. Da die Private Cloud günstiger ist als eine Public Cloud, muss sie nicht genauso agil sein wie die öffentliche Infrastruktur. Sie muss lediglich so nahe an die Public Cloud herankommen, dass die entsprechenden Mehrkosten für die Unternehmensabteilungen nicht mehr vertretbar sind.
Diese Neuausrichtung auf die Private Cloud wird auch einen starken Einfluss auf die Art und Weise haben, wie das Thema Storage in Unternehmen diskutiert wird. Die Diskussion wird sich wegbewegen von Speichermedien und Storage-Architekturen (Cloud-Storage, Flash-Storage, SDS) und sich stärker an den geschäftlichen Bedürfnissen orientieren. Sie wird sich um As-a-Service-Angebote und die Agilität drehen, die notwendig ist, um die Bedürfnisse der Geschäftsbereiche zu erfüllen.
Fünf Minuten oder fünf Monate
Bei der nächsten Speichergeneration geht es darum, dass die Entwickler schneller mit ihrer Arbeit vorankommen und die Bereitstellung sofort bei Bedarf erfolgen kann, ohne dass die IT-Abteilung in Vorleistung treten muss. IT-Abteilungen, die in der Lage sind, diese Agilität bereitzustellen, werden eine Basis für die Zusammenarbeit mit den Leitern der einzelnen Geschäftszweige finden, die ebenfalls ihre eigenen Kosten senken wollen, um mehr Projekte und neue kundenorientierte Dienste zu starten.
Das größte Hindernis für eine positive Entwicklung der IT liegt heutzutage tatsächlich außerhalb der IT, im Beschaffungsprozess. In einer wirklich vollautomatischen privaten Cloud, in der die Bereitstellung rund fünf Minuten dauert, verzögern sich die Prozesse erheblich, wenn neue Hardware angeschafft werden muss. Ist dies der Fall, können aus den fünf Minuten der Bereitstellung leicht fünf Monate werden – während die Entwickler darauf warten, dass neue Hardware beschafft, ausgeliefert, installiert und konfiguriert wird. Sind die Beschaffungsprozesse zudem sehr bürokratisch organisiert, ist das Ergebnis, wenig überraschend, ein langsames Private-Cloud-Angebot.
:quality(80)/images.vogel.de/vogelonline/bdb/1661700/1661782/original.jpg)
Topthema 2020: Organisation von Milliarden Daten
Totes Kapital oder Gold der Neuzeit?
Unternehmen, die sich nicht von diesen alten Beschaffungspraktiken lösen, können ihre Private Clouds nicht effizient nutzen, was bedeutet, dass sie gezwungen sein werden, mehr Anwendungen in teureren Public Clouds laufen zu lassen, was wiederum ihren Wettbewerbsvorteil mindert.
Die Datenschicht: typischer Flaschenhals für die kostengünstige Nutzung der Private Cloud
Letztlich wollen die Kunden genau das Beschaffungsmodell für ihre Private Cloud, das die Public Cloud so beliebt macht: erst bereitstellen und später bezahlen, auch bekannt als „Pay-as-you-grow“. Allerdings steht die IT-Community hier noch am Anfang der Diskussion. Zunächst sollte sich jedes Unternehmen fragen, wo der eigene Flaschenhals ist. In den meisten Fällen ist die Rechenschicht bereits virtualisiert. Das Netzwerk hingegen ist häufig nicht entsprechend skalierbar – außer vielleicht in Big-Data-Umgebungen.
Der Flaschenhals liegt oft auf Ebene der Daten. Weil Daten physikalische Eigenschaften haben, die sich nicht virtualisieren lassen, ist es schwierig, Ressourcen vorzuhalten, die ausreichend sind, um Skalierbarkeit zu gewährleisten. Die Skalierung der Datenebene erfordert in der Regel viel Zeit: Beschaffung, Lieferung, Installation und Konfiguration. Ohne neue Bereitstellungsmodelle, die denen der Public Cloud gleichen, werden Private Clouds im Wettbewerb mit öffentlichen Clouds immer im Nachteil sein. Der Flaschenhals liegt oft in der Datenschicht, da die Daten physikalische Eigenschaften (Kapazität, Leistung) haben und nur begrenzt überprovisioniert werden können, ohne dass ein Risiko entsteht.
Die Skalierung der Datenschicht erfordert in der Regel einen langen Zyklus – Beschaffung, Auslieferung, Installation und Konfiguration –, bevor sie tatsächlich zur Nutzung zur Verfügung steht. Ohne neue, Cloud-ähnliche Beschaffungsmodelle für die Datenschicht werden private Clouds im Wettbewerb mit öffentlichen Clouds immer im Nachteil sein.
Storage-Paradigmenwechsel in Richtung Backup/Restore
Die Einführung eines neuen Dienstes geht über die geschäftskritische Produktionsumgebung hinaus. Um Rufschädigung oder Kundenverlust zu verhindern, müssen Unternehmen alle unterstützenden Systeme implementieren, wie Backup oder Business Continuity. Bei Backup-Systemen ist das Volumen oft größer als das der Produktionssysteme, da viele Versionen der gleichen Daten im Backup gespeichert werden. Um die Kosten unter Kontrolle zu halten, haben sich Unternehmen bei der Datensicherung schon immer auf kostengünstige Festplatten mit hoher Kapazität verlassen.
Angesichts neuer Bedrohungen durch Ransomware und anderer Arten von Datenverlusten müssen Unternehmen ihre Leistungsanforderungen anpassen und dabei einen stärkeren Fokus auf die Wiederherstellungszeiten legen. Dies veranlasst einige dazu, auf All-Flash-Backups umzusteigen, was wiederum eine Verzehnfachung der Kosten nach sich zieht. Verschärft wird dieses Szenario zusätzlich dadurch, dass die Backup-Daten bereits komprimiert und dedupliziert sind, so dass die Datenreduktion innerhalb dieser All-Flash-Arrays vernachlässigbar gering ist.
:quality(80)/images.vogel.de/vogelonline/bdb/1661700/1661734/original.jpg)
Backup-Trends und -Entwicklungen: Ansprüche und Anforderungen steigen
Von der Randerscheinung zum Fokusthema
Bei größeren Volumina und ohne Datenreduzierung belastet diese Umstellung auf All-Flash das IT-Budget und zwingt Anwenderunternehmen dazu, nach kosteneffizienten Lösungen zu suchen, die den Anforderungen an die Wiederherstellungsgeschwindigkeit gerecht werden. Zudem müssen sich die Kunden auf die Suche nach modernen, Cloud-ähnlichen Modellen begeben, die es ihnen ermöglichen, erst dann zu zahlen, wenn sie die Kapazität bereits genutzt haben. Damit ändern sich die Anforderungen an die Wiederherstellung.
Die Rolle von HDDs und Bandlaufwerken
Obwohl sich viele Faktoren ändern werden, bleiben Speichermedien voraussichtlich ein großes Thema innerhalb der IT. Die Spitzenposition in Sachen Leistung und Kapazität belegt NVMe, während Festplatten und Bandlaufwerke das untere Ende besetzen. Um die wirtschaftlichen Ziele zu erreichen, müssen für jede Anwendung die kostengünstigsten Medien verwendet werden. Das Band ist seit Jahren eine „tote Technologie“, wird aber aus Kostengründen, und weil es ein Offline-Medium ist, noch immer für Langzeitarchive verwendet. Um höhere Leistungsanforderungen zu erfüllen, suchen IT-Manager jedoch noch immer nach dem richtigen Medientyp.
Die Diskussion um geeignete Speichermedien ergibt alleine betrachtet jedoch noch keinen Sinn – denn wichtiger als die verwendeten Speichermedien ist die Auswahl der Software, die den Speicherprozess steuert. So können beispielsweise intelligente Lösungen, die mit kostengünstigeren Medien arbeiten, eine wirklich hohe Leistung erreichen, während bei teuren All-Flash-Arrays aufgrund der begrenzten Software-Architektur gleichzeitig erhebliche Performance-Engpässe auftreten können. Wir befinden uns tatsächlich in einem Zeitalter Software-definierter Lösungen und müssen daher unser Augenmerk über die Speichermedien hinaus auf die Gesamtarchitektur richten. Diese ist nämlich in der Lage, die Leistung über das hinaus zu steigern, was ein Medientyp normalerweise bietet.
Unternehmen sind demnach gut beraten, sich nicht allzu sehr in Diskussionen über Speichermedien zu verstricken. Die wirklich entscheidende Frage im Jahr 2020 wird sein, was jede Abteilung wirklich braucht – Agilität ist dabei meist die Anforderung Nummer eins. Damit die Private Cloud es Unternehmen ermöglicht, ohne die Kosten der Public Cloud weiter zu wachsen, müssen neue und bessere Werkzeuge gefunden werden, wie etwa ein „Elastic-Data-Fabric“-Ansatz für ein hochflexibles Speichermanagement, welcher die nahtlose Mobilität von Workloads zwischen Systemen, Rechenzentren und Cloud Storage unterstützt und gleichzeitig Datenmigrationen überflüssig macht. Nur ein solcher Ansatz kann dafür zu sorgen, dass eine Private Cloud auch 2020 ihren Beitrag zum Geschäftserfolg leisten kann.
*Der Autor: Eran Brown, Chief Technical Officer EMEA bei Infinidat
(ID:46313516)