Mobile-Menu

Die Storage-Gretchenfrage: On-Prem oder as-a-Service? So balancieren Unternehmen ihre Speicherlandschaft aus

Von Michael Matzer |

Obwohl viele Unternehmen mittlerweile die Cloud in unterschiedlichen Ausprägungen für Speicherzwecke nutzen, ist ein Betrieb ganz ohne On-Prem-Storage (noch) die Ausnahme. Was kennzeichnet eine Speicherinfrastruktur typischerweise? Und wie fügen sich Cloud-Speicherlösungen ein?

Anbieter zum Thema

Hybride Speicherinfrastrukturen sind mittlerweile Standard.
Hybride Speicherinfrastrukturen sind mittlerweile Standard.
(Bild: © Nmedia - stock.adobe.com)

Speicherkapazitäten lassen sich im eigenen Unternehmen ohne Weiteres aufbauen, sofern das Unternehmen bereit ist, den Kampf mit den Workloads der steigenden Datenflut aus eigener Tasche zu bezahlen. Dann kauft man einfach ein Storage-Blade nach dem anderen hinzu, bis das System schließlich in den Terabyte-Bereich gelangt. Dann werden Kenngrößen wie Datendurchsatz über Bus (PCIe 4.0), Konnektivität (Fibre Channel, Infiniband, Ethernet, Fabric) und Netzwerk (mit Protokollen wie NFS und SMB) relevant, um die Zugriffszeiten in einem tolerablen Bereich zu halten. Die Software wird wichtiger als die Hardware.

Bildergalerie

Tiering

Doch Speicher ist nicht gleich Speicher. Storage-Tiering als hierarchisches Speichermanagement ist heute überall üblich. Es gibt „heiße“ Daten, die schnell verarbeitet werden müssen, so dass Flash-Memory und zunehmend auch DRAM dafür herangezogen werden. Dann gibt es „warme“ Daten, für die keine zu niedrigen Latenzen vorhanden sein dürfen und die auf Festplatten bereitgestellt werden können. Schließlich gibt es „kalte“ Daten, die auf langfristige Aufbewahrung ausgerichtet sind. Dafür bilden Tape-Libraries die kostengünstigste Technologie. Da Tapes eine immer höhere Speicherkapazität bei gleichem Formfaktor bereitstellen, lassen sich auf dieser Archivebene selbst enorme Datenvolumina kostengünstig verwalten.

Mittlerweile können manche Lösungen File- und Object-Storage kombinieren oder beides ganz in der Cloud realisieren. Da in der Cloud in der Regel sehr große Files abgelegt, repliziert und verwaltet werden, bietet sich für Workloads wie Grafiken, Video- und Audio-Files, die nicht immer heiß sein müssen, das Auslagern in ein externes Rechenzentrum an.

Storage in der Public Cloud

Storage-Services wie S3 von Amazon Web Services spiegeln genau diese Anforderungen wider. Sie bieten somit Storage-Tiering, das sich mit wenigen Klicks entsprechenden Applikationen wie etwa einem Webserver oder einer Datenbank sowie entsprechenden Workloads zuweisen lässt. Sobald Klarheit darüber besteht, wie gering die Latenzzeiten und wie hoch die Volumina der Workloads sein sollen, können heiße, warme und kalte Instances ohne weiteres gebucht werden. Sehr kalte Instances wie AWS Glacier sind auf langfristige Datenaufbewahrung ausgerichtet. Entsprechend niedrig sollten die Nutzungsgebühren sein. Die kann der Interessent schon vor dem Buchen berechnen.

Caveats

Ein wichtiger Aspekt ist die Beachtung lokaler Datenverwaltungsrichtlinien. Nur wenn der Kunde sicher sein kann, wo seine Daten gespeichert werden und dass dies in seinem eigenen Rechtsraum stattfindet, lassen sich gesetzliche Vorgaben wie die DSGVO einhalten. Bei einem S3-Angebot von AWS würde der Kunde bevorzugt die „Region Frankfurt“ in der entsprechenden Availability Zone (AZ) in Europa auswählen. Dann kann er sicher sein, dass die Latenzzeiten niedrig sind.

Das ist ein Aspekt, den es auch beim Datenaustausch und beim simplen Datenabruf zu beachten gilt: Diese beiden Vorgänge sind mitunter kostenpflichtig. Es gibt jedoch Ausnahmen, die wir in einem gesonderten Beitrag erläutern.

Weil sich Ressourcen, die On-Premises oder in der Public Cloud vorliegen, inzwischen durch die Hybrid-Cloud kombinieren lassen, besteht für den Interessenten oder Nutzer die Option, den Nutzungsschwerpunkt je nach eigenem Bedarf zu verschieben. Damit dies zu keinem höheren Personalaufwand führt, sollte die gewählte Lösung einen Automatismus anbieten, der diese Anpassung – wie mit einem Schieberegler – automatisiert anpasst. Mithilfe von Machine Learning werden dazu aufgrund der aktuellen Nutzung Modelle erstellt, die diese Aufgabe übernehmen können. Machine Learning ist also mittlerweile ein Auswahlkriterium.

Backup/Restore

Das Anlegen von Sicherungskopien und deren Wiederherstellung ist eine der wichtigsten Nutzungsformen von Storage. Ohne Backups lässt sich heutzutage kein abgesicherter IT-Betrieb mehr realisieren. Die Backup-Lösung fertigt in regelmäßigen Abständen sogenannte Snapshots an, die dann am Speicherort der Backups abgelegt werden. Dieser sollte möglichst gut abgesichert sein.

Florian Bettges von HPE Deutschland warnt: „Die verbreitete Annahme, dass die Public Cloud generell billiger ist, trifft nicht zu. Das zeigt sich beispielsweise bei der Datenmigration, auch zu Backup- oder Restore-Zwecken. Sie verursacht beträchtliche Kosten, die angesichts günstiger Public-Cloud-Speicherkosten oft übersehen werden. Zudem dauert das Rückspielen unter Umständen schlicht zu lange, wenn es bei der Wiederherstellung von Daten auf möglichst kurze Fristen ankommt.“

Worauf der Interessent also achten sollte, ist der Zeitraum, in dem die Wiederherstellung (Disaster Recovery, DR) erfolgen kann. Außerdem muss die Wiederherstellung als Geschäftsprozess regelmäßig geübt und trainiert werden, damit im Ernstfall alle Einzelschritte reibungslos in Idealzeit klappen. Ist die Idealzeit nicht realisierbar, kostet jede Minute Verzögerung das Unternehmen eine bestimmte Summe, die aus entgangenen Abschlüssen, verlorenen Kundenkontakten und gescheiterten Prozessen, mitunter sogar aus Konventionalstrafen resultieren kann.

Ransomware-Schutz und mehr

Eine ernste und potentiell kostspielige Gefahr geht von Ransomware-Attacken aus. Die Angreifer, die mittlerweile jährlich weltweit Milliarden Euro erpressen, haben es zunächst auf die Lebensversicherung der Opfer abgesehen: auf die Backups. Diese werden als erstes verschlüsselt, so dass die Wiederherstellung der als nächstes verschlüsselten Arbeitsdaten vereitelt wird.

Der Storage-Nutzer sollte sich daher besser früher als später ein Konzept für den Schutz vor Ransomware in seiner Infrastruktur zurechtlegen. Glücklicherweise sind immer mehr Storage-Anbieter in der Lage, hierfür eine Lösung anzubieten. Die Grundlage bildet die Option, Daten, Verzeichnisse und Laufwerke beziehungsweise Cluster auf Nur-Lesen umzustellen und den Zugriff nur nach dem Vier-Augen-Prinzip zu gestatten. Die Funktion „Object Lock“ von AWS ist der Grundbaustein für so manche Backup-Lösung, die 2020 und 2021 vorgestellt wurde.

Bildergalerie

Die Storage-Services der Public Cloud bieten, wie dargestellt, zahlreiche Vorteile. Sie erfordern keine Kapitalinvestition (Capex), sondern lediglich laufende Betriebsausgabe (Opex), die sich sofort abschreiben lassen. Sie sind skalierbar, flexibel anpassbar und werden exakt abgerechnet. So etwas wie versteckte Kostentreiber gibt es im Cloud Computing in der Regel (je nach Anbieter) nicht; im Gegenteil lassen sich durch eine Fülle von Werkzeugen Optimierungsoptionen ausschöpfen.

Wenn aber die Public-Cloud-Services so attraktiv sind, wie schafft es ein kleines oder mittleres Unternehmen, sie in seine bestehende Speicherinfrastruktur einzugliedern? Dafür gibt es verschiedene Strategien. Der Tenor: schön sachte Schritt für Schritt vorgehen.

Der Mittelweg der Hybrid-Cloud

„Ein sinnvoller Start ist die Verschiebung selten genutzter Daten in die Cloud, anstatt diese auf Tapes vorzuhalten, von denen niemand weiß, ob sie im Fall der Fälle noch lesbar sein werden“, fasst Roland Rosenau, Systems Engineering Manager Europe bei Rubrik, zusammen. „Ganz zuvorderst stehen hier Backup-Daten, die zwar unter Umständen lange aufbewahrt werden müssen, bei denen aber der Zugriff unwahrscheinlich ist.“ Hier könne es sich schnell rechnen, einen Cloud-Anbieter zu wählen, der sicherstelle, dass die Daten zur Verfügung stehen, wenn sie denn benötigt würden. Auch Tiering könne sich hier lohnen. „Bei Daten, die Jahre alt sind, sind Wiederherstellungszeiten von mehreren Stunden oder gar Tagen in der Regel vertretbar.“

Prinzipiell sei ein kompletter Umstieg in die Cloud für Mittelständler schwer zu vollziehen – und sei auch nur in seltenen Fällen sinnvoll, warnt Rosenau. Von daher seien Hybrid-Lösungen ein geeigneter Ansatz. „Mit modernen Scale-Out-Ansätzen, die gleichzeitig noch einen Weg in die Cloud aufzeigen, kann ein hybrider Ansatz gefahren werden, der damit startet, selten genutzte Backup-Daten in die Cloud zu verschieben. Im nächsten Schritt kann dann die Cloud als Disaster-Recovery-Option eingeführt werden, und final können komplette Applikationen und Workloads in die Cloud verschoben werden.“

Dieser Ansatz des „Step by Step“ ist offenbar der Weg mit dem geringsten Risiko. „Optimalerweise bietet die Speicherinfrastruktur dann noch einen einfachen Weg, den Cloud-Anbieter zu wechseln, um im Falle von Unzufriedenheit nicht auf Gedeih und Verderb einem Anbieter ausgeliefert zu sein.“

Vorsicht beim Anbieterwechsel

Wie in vielen anderen Bereichen der Cloud ist Storage-as-a-Service (STaaS) ein Thema, auf das Entscheider einen Blick werfen sollten. Die Vorteile liegen auf der Hand: Die IT bleibt flexibel und kann dynamisch auf Anforderungen reagieren. Flexibilität hat wie immer im Leben ihren Preis, aber die Frage, die sich Entscheider stellen sollten, ist vielmehr: Wie viel kostet mich eine falsche Entscheidung mit einer Bindung von fünf Jahren, wenn sich nach zwei Jahren herausstellt, dass die Entscheidung falsch war?

„Mit dem richtigen Modell kann ein SaaS-Ansatz die Vorteile einer On-Prem-Lösung mit der Flexibilität einer Public Cloud kombinieren und für Unternehmen in den nächsten Jahren die richtige IT-Strategie sein“, argumentiert Güner Aksoy, Regional VP Germany and Austria bei Pure Storage. „Man muss sich also nicht zwingend zwischen Cloud und On-Premises, sprich Schwarz oder Weiß, entscheiden. Es gibt auch Ansätze innerhalb dieses Kontinuums.“

Wer über einen kompletten Wechsel in die Public Cloud nachdenkt, sollte immer das „Big Picture“ betrachten. „Hier geht es nicht nur im Speicher. Der Anwender sollte sich fragen: ,Sind meine mitunter alten Applikationen Cloud-ready?‘ Durch den Wechsel ändert sich nämlich alles, vom Speicher bis hin zum Security-Konzept.“ Für den Mittelstand könne ein kompletter Wechsel eine große Kraftanstrengung sein, die Risiken berge und eventuell mehr Ressourcen verschlinge als die On-Premises-Variante. „Am Ende des Tages sollte die Frage nach den wahren Kosten und dem realen Nutzen für das Business im Vordergrund stehen“, rät Aksoy.

Einen Mittelweg können seiner Ansicht nach Storage-as-a-Service-Konzepte bilden, die es neben einem klassischen On-Premises-Ansatz ermöglichen, parallel in der Public Cloud zu wachsen (Hybrid-Cloud). „Das mittelständische Unternehmen kann einen Wechsel in die Public Cloud dort durchführen, wo es sinnvoll ist, bei planbaren und gleichen Kosten.“

Weitere Aspekte

Wer die Cloud als Speicher nutzt, profitiert von den üblichen Vorteilen bezüglich Kostentransparenz, Skalierbarkeit und Verfügbarkeit. Ein neuer Speicher ist in Minuten per Knopfdruck gekauft und installiert. Eigene Infrastruktur im Rechenzentrum aufzubauen, hat den Vorteil, dass das Unternehmen weiter unabhängig von externen Dienstleistern bleibt und sensible Daten im Haus behalten kann.

„Bei einer Migration in die Cloud sollten jedoch auch die versteckten Kosten nicht aus dem Auge verloren werden“, empfiehlt Marc Ahlgrim, Experte für Compliance und Risikominimierung bei Veritas Technologies. „Oftmals verlangen Cloud-Anbieter wesentlich höhere Preise, wenn man von einem anderen Provider wechseln möchte. Die Wahl eines Anbieters kann also schnell zum sogenannten Vendor-Lock-in führen.“ Auf der anderen Seite seien beispielsweise Replikationen des Speicherinhaltes in ein zweites Data Center in einem anderen Land oder gar auf einem anderen Kontinent wesentlich einfacher und schneller zu gestalten als On-Premises.

Veritas empfiehlt Kunden, den idealen Mix für sich zu implementieren. Dieser Mix wird je nach Unternehmen und Branche völlig anders aussehen und unterschiedlich große Anteile von On-Premises und Cloud miteinander verknüpfen.

„Wie auch immer sich das Unternehmen entscheiden wird, wichtig wird sein, die Daten auf jeder dieser Infrastrukturen ausreichend zu sichern“, rät Ahlgrim. „Denn die Cloud-Provider selbst sind ausgezeichnet darin, ihre eigene Infrastruktur und ihre Dienste hochverfügbar zu halten. Für die darauf abgewickelten Daten ist aber der Besitzer, in dem Fall das KMU, selbst verantwortlich.“

Daher sollten KMUs ein zentrales Backup- und ein Disaster-Recovery-Konzept realisieren, welches die Daten auf jeder beliebigen Infrastruktur, ob im Rechenzentrum oder in der Cloud, einheitlich sichert und vor allem schnell und simpel wiederherstellen kann. Eine andere Gefahr besteht darin, für jede Infrastruktur und Cloud-Umgebung auf die Punktlösung des jeweiligen Anbieters zu setzen und sich unter Umständen in diesen Insellösungen zu verzetteln.

„Schulungen, Zertifizierungen, unterschiedliche Arbeitsweisen und Wiederherstellungsprocedere verkomplizieren diese Aufgabe ungemein und könnten wichtige Ersparnisse aus dem Cloud-Deployment im Betrieb aufbrauchen“, so Ahlgrim weiter. „Ebenfalls wichtig ist es für das Unternehmen, genau steuern zu können, welche Daten in die Cloud wandern können und welche unbedingt lokal bleiben müssen, etwa weil es sich um Forschungs- oder Kundendaten und damit personenbezogene Daten handelt, die nach der DSGVO gesondert behandelt werden müssen.“

Daher sei es ratsam, die Metadaten all der Datenquellen im Unternehmen zu erfassen und auszuwerten, und zwar übergreifend vom lokalen Rechenzentrum bis in die Cloud. Die Metadaten liefern wichtige Hinweise darauf, wer welche Daten erstellt und bearbeitet hat, etwa ein Mitarbeiter aus der Personalabteilung oder der Geschäftsführung. Anhand dieser Information könne man Rückschlüsse daraus ziehen, wie viel die Inhalte wert sind und welches Risiko die Firma eingehe, wenn die Daten gelöscht würden. „Der Wert gibt klare Indikatoren vor, wie viel eine Firma mit gutem Gewissen in ihren Schutz investieren kann und sollte.“

Bildergalerie

Das Unternehmen kann laut Ahlgrim bei sensibel eingestuften Daten noch einen Schritt weitergehen und diese gezielt indizieren und klassifizieren, um sie einzusehen und automatisiert wichtige Inhalte wie personenbezogene Daten zu finden. Auf Basis dieses tiefen Wissens ließen sich weitere Fragen beantworten: Liegen sensible Daten auf offenen Public Shares, und sind diese verschlüsselt? Haben nur privilegierte Anwender Zugriff auf sensible Datenquellen intern, oder sind dort einige User überprivilegiert und sollten Rechte verlieren?

„Auf dieser Grundlage lassen sich Zugriffe auf Daten strenger kontrollieren und dadurch das Sicherheitsniveau insgesamt erhöhen“, rät der Experte von Veritas. „Metadaten und klassifizierte Inhalte sind unter dem Strich essenziell für eine richtige Risikoanalyse.“

Aktuelles eBook

Speichertechnologien im Vergleich

HDD, Flash & Hybrid: Der passende Speicher für jeden Einsatz

eBook HDD, Flash und Hybrid
eBook „HDD, Flash & Hybrid“
(Bildquelle: Storage-Insider)

In diesem eBook lesen Sie, welche verschiedenen Speicher es gibt und welche Vor- und Nachteile diese haben.

Die Themen im Überblick:

  • Der passende Speicher für jeden Einsatz – HDD, SSD und Tape
  • HDDs: Heimvorteil und neue Technologien
  • Flash-SSDs & Co.: wie ein geölter Blitz
  • Storage-Arrays unter die Haube geschaut – SSD, HDD und Hybrid
  • Tape: die Kunst der Langzeitarchivierung

(ID:47884544)