Datenmigration vom Network Attached Storage in die Cloud Stillstand mit „sticky“ NAS?
Anbieter zum Thema
Der kritische Knackpunkt im Rechenzentrum scheint heute Network Attached Storage (NAS) zu sein. Nicht weil es sich um ein proprietäres Format handelt, sondern wegen der schieren Menge an Daten, der zu beachtenden Berechtigungen, der Verknüpfungen – um nur einige Punkte zu nennen.

Schwergängig wie eine verrostete Schraube?
In der IT hören wir oft, dass einige Lösungen unbeweglicher seien als andere. Dem ehemaligen Gartner-Analysten Dave Russell wird das Zitat zugeschrieben, nach dem Backup-Lösungen „sticky“ seien. Der Hauptgrund für diese Schwergängigkeit hat in Wirklichkeit mit den Backup-Daten zu tun, die bei einigen der älteren Lösungen ein proprietäres Format beim Schreiben auf Festplatte oder Tape verwendeten, sowie mit der Compliance oder einfach auch mit der Art der Aufbewahrung der Backup-Daten.
Für Kunden, die auf eine neue Plattform umziehen wollten, bedeutete dies, dass die ursprüngliche Lösung für eine gewisse Zeit weiter beibehalten werden musste, bis die Aufbewahrungsdauer erreicht war. Oder aber sie mussten versuchen, die Daten bereits auf die neue Plattform zu migrieren vor dem Hintergrund der bisherigen Aufbewahrung der Metadaten. Klingt entmutigend? Ist es. Und zeitaufwendig dazu.
Gut ist nicht gut genug
Es gibt eine ganze Reihe von Speicheranbietern, die es begrüßen würden, wenn ihre Kunden über Jahre hinweg ganz einfach mit ihnen „festsitzen“ würden. Sie sind überzeugt, dass eine Lösung, die „gut genug“ ist, Kunden keine wirkliche Grundlage für Abwanderungsgedanken bietet. Ich habe vor vielen Jahren für eine Werbeagentur gearbeitet, deren Motto lautete: „Good Enough is Not Enough“. Mit anderen Worten: Das Ziel sollte stets sein, die Erwartungen nicht nur zu erfüllen, sondern zu überbieten. Während „gut genug“ für einige dieser Speicheranbieter Grund genug sein mag, sich zurückzulehnen, ist dieser Ansatz definitiv nicht darauf ausgerichtet, Kunden in Begeisterung zu versetzen.
Aber gesetzt den Fall, ein Unternehmen möchte von Speicherlösung A zu Speicherlösung B wechseln? Damals, als ich vor vielen Jahren als Administrator im Einsatz war, haben wir das umgesetzt: den Wechsel von einer Speicherplattform auf eine andere. Das war enorm arbeitsintensiv und erforderte jede Menge Verifizierungen auf der neuen Speicherlösung, wie beispielsweise alle Hard-Links und Soft-Links, die wir auf der alten Lösung erstellt hatten. Es gab nicht wirklich eine gute Möglichkeit für uns, die Log-Files für Erfolge und Misserfolge einzusehen. Zum größten Teil handelte es sich um einen Single-Thread-Prozess, der (gelinde gesagt) mühsam zu managen war. Das ist einer der Gründe, warum einige Speicherlösungen so „sticky“ und unbeweglich sind wie eine festsitzende, rostige Schraube. Das macht es schwierig, sie zu lösen, um von einer reinen On-Premises-Lösung zu einer anderen (oder gar von On-Premises in die Cloud) zu migrieren.
Welche Art von „sticky“ NAS haben Sie?
Sind Sie schon einmal an einem heißen Sommertag spazieren gegangen und auf ein Stück Kaugummi getreten, das dann an Ihrem Schuh klebte? Dann kennen Sie dieses lästige Gefühl. Es ist kein Weltuntergang, aber eine ziemliche Sauerei beim Entfernen und insgesamt eine bisschen eine Qual. So wie die neue Speicherlösung, die Sie vielleicht gekauft haben, um sie in Ihrem Rechenzentrum als Small Storage Footprint auszuprobieren, der ein wenig mehr gewachsen ist, als für das „wissenschaftliche Experiment“ eigentlich vorgesehen war.
In diesem Kontext: Welche Art einer „sticky“ Speicherlösung haben Sie? Ist es die ärgerliche, unerfreuliche Variante wie ein hartnäckiger Kaugummi, der an Ihrem Schuh klebt, oder ist es die „festsitzende“ Variante, die einer alten, verrosteten Schraube gleicht? Nachdem ich viel an Oldtimern gearbeitet habe, bin ich bestens vertraut mit verrosteten Schrauben, die jede Menge Zeit und Aufwand erfordern (und vielleicht sogar zusätzliche Unterstützung), um sie zu lockern und schlussendlich zu entfernen.
:quality(80)/images.vogel.de/vogelonline/bdb/1803400/1803436/original.jpg)
Cloud oder NAS: Für wen lohnt sich was?
Cloud-Backup vs. NAS: ein Vergleich
Das Gleiche lässt sich über manchen NAS-Lösungen in Rechenzentren sagen, bei denen es vielerlei Hindernisse geben kann, die Änderungen erschweren, etwa das Datenvolumen, die Komplexität von Applikationen, das möglicherweise erforderliche Umstrukturieren von Applikationen, die in die Cloud gehen, allgemeine Instabilität der Speicherplattform et cetera. Jeder dieser Faktoren für sich genommen oder aber alle im Zusammenspiel können einen Kunden schlussendlich dazu zwingen, den „einfachen Weg“ zu wählen und ganz einfach mehr Legacy-Storage hinzuzufügen, um das Datenvolumen über mehrere Silos zu verteilen – zur Vermeidung der kompletten Migration zu einer neuen Plattform, entweder On-Premises oder in der Cloud. Aber dieser Ansatz ist, wie wir wissen, keine wirkliche Lösung.
Was macht die Migration für manche so zermürbend?
Wie bereits erwähnt, können bestehende Komplexitäten einige IT-Entscheider dazu zwingen, den Status quo beizubehalten und eine bereits veraltete NAS-Lösung einfach weiter auszubauen. Die digitale Strategie vieler IT-Leiter beinhaltet jedoch die Verlagerung bestimmter, mehrerer (und in einigen Fällen auch aller) Workloads zu einem der großen Cloud-Anbieter wie etwa Azure, AWS oder GCP. Bestehende Workloads können eine große Herausforderung darstellen. Einer dieser herausfordernden Faktoren: File-for-On-Premises-Workloads im Vergleich zu Object-for-Cloud-Workloads. Hier kommt die Diskussion um das Refactoring von Applikationen ins Spiel.
Was wäre, wenn Sie sich nicht um das Refactoring Ihrer Applikationen kümmern müssten, sondern einfach Ihre Daten von Ihrem alten Legacy-NAS auf eine moderne Dateidatenmanagementplattform in der Cloud migrieren könnten? Für viele Unternehmen wäre dies die bevorzugte Methode, da sie sofort den Kostenwert der Cloud für ihre Workloads sehen und zugleich eruieren könnten, ob ein Refactoring punktuell überhaupt nötig wäre. Unterm Strich werden IT-Entscheider so in eine gestärkte Position versetzt, und insgesamt entsteht Raum für bessere Unternehmensentscheidungen.
Beispiel: Qumulo Core
Qumulo ist 100 Prozent Hardware-unabhängig als Software-Lösung, das heißt, Qumulo Core läuft auf jeder unterstützten Hardware im Rechenzentrum, in einer Colocation-Einrichtung (Hosting) für physische Rechenzentren oder aber in der Cloud, ohne dass es dabei zu Beeinträchtigungen zwischen den Standorten kommt. Bei Qumulo nennt man das „Software-Portabilität“, und es ist einer der wesentlichen Punkte, die Qumulo von Speicheranbietern der „alten Schule“ und sogar von einigen Newcomern unterscheidet, die sich an Hardware gebunden haben.
Wenn Sie beispielsweise eine Speicherlösung von Dell EMC Powerscale (Isilon) verwenden, werden Sie rasch feststellen, dass der Betrieb dieser Lösung in der Cloud im Wesentlichen ein Auslagern der Hardware entweder in eine Colocation-Einrichtung oder in die Google Cloud Platform zum Hosten erfordert. Das ist keine Hardware-unabhängige Lösung. Es handelt sich hier eindeutig um eine „Appliance“, welche die Integration von Hardware und Software erfordert, um wie versprochen zu funktionieren. Apropos Appliance: NetApp ist ein Legacy-Unternehmen, das eine sehr eingeschränkte Routine zwischen seiner On-Premises-Lösung und seinem Cloud-Angebot bietet. Bei Azure NetApp File beträgt der maximal verfügbare Speicher beispielsweise 100 TB.
Es ist kein Wunder, dass IT-Profis den Wechsel in die Cloud schwierig finden. Nicht nur, dass das Refactoring von Applikationen immer auf dem Radar sein muss, wenn Sie auf der alten Legacy-Storage-Plattform bleiben wollen. Es gibt darüber hinaus auch nicht viele Optionen, die dies aus finanzieller Sicht sinnvoll erscheinen lassen.
Moderne Dateidatenverwaltung und -speicherung ist der Schlüssel zur digitalen Strategie
Eines der Dinge, welche die Pandemie ans Licht gebracht hat, ist die Tatsache, dass wir in der Cloud überleben und dabei gleichbleibend zuverlässige oder gar bessere Ergebnisse für unsere Kunden erzielen können. Organisationen waren im Kontext der Pandemie von heute auf morgen gezwungen, einen sinnvollen Weg zu finden, um den Geschäftsbetrieb mit eingeschränktem Zugang zu Rechenzentren und Büros fortzuführen. Aus diesem Grund suchen viele IT-Entscheider jetzt nach Möglichkeiten, ihren Kunden qualitativ hochwertigere Services liefern zu können und dabei gleichzeitig die Kosten zu senken, indem sie die Abhängigkeit von großen Rechenzentren minimieren.
*Der Autor: David A. Chapa, Head of Competitive Intelligence, Qumulo
(ID:47572799)