Innovation oder Marketing? Die verführerische Magie des Cloud Tiering
Anbieter zum Thema
„Jede hinreichend fortgeschrittene Technologie ist von Magie nicht zu unterscheiden.“ Diese brillante Maxime des britischen Science-Fiction-Autors und Physikers Arthur C. Clarke bedeutet allerdings nicht, dass eine Lösung, die magisch zu sein scheint, durch eine hinreichend fortgeschrittene Technologie unterstützt werden muss. Vielmehr ist oft das Gegenteil der Fall.

Unternehmen entwickeln einfache, ansprechende, ja sogar magische Slogans, um die zugrundeliegenden Schwächen und die Komplexität ihrer Technologie zu verschleiern. Cloud Tiering ist zwar nicht der schlimmste Übeltäter, steht aber ganz oben mit auf der Liste.
Alle traditionellen Speicheranbieter haben irgendeine Variante von Cloud Tiering im Portfolio. Man sollte sie jedoch nicht mit Cloud-Innovatoren verwechseln. Denn sie versuchen, relevant zu bleiben, indem sie Cloud-Funktionen auf altmodische Hardware aufsetzen. Das passiert schon länger und lässt sich mehrere Jahrzehnte zurückverfolgen, bis hin zu dem ebenfalls nicht umsetzbaren Versprechen des Tiering im Information Lifecycle Management (ILM).
Bei Cloud Tiering handelt es sich lediglich um einen cleveren Marketingbegriff. Dahinter verbirgt sich aber ein grundlegend falscher Ansatz für das Kapazitätsmanagement. Immerhin erkennen Unternehmen allmählich, dass eine Cloud-Lösung, die sich auf Tiering statt auf die Synchronisierung von Daten verlässt, sehr viel weniger effizient ist.
Synchronisierung, Tiering und Cloud
Tiering ist kein neues Konzept in der Speicherwelt. Diese Art der geplanten, organisierten Verlagerung von Daten vom Front-End zum Back-End gibt es schon seit Jahrzehnten. Heute ist das Backend-Ziel die Cloud. Aber die Cloud selbst hat wenig mit den altmodischen Speichermedien gemein. Die Technologie, die wir zur Nutzung unbegrenzter, bedarfsgerechter und kostengünstiger Kapazitäten einsetzen, sollte für dieses revolutionäre neue Speichermedium konzipiert und optimiert werden.
Die Cloud erfordert einen neuen Ansatz, nicht eine modifizierte Variante eines vor Jahrzehnten entwickelten Ansatzes. Die Daten sollten mit der Cloud synchronisiert werden, nicht in Schichten aufgeteilt. Der Unterschied zwischen Tiering und der Synchronisierung von Daten mit der Cloud ist ein endlicher Entwurf im Gegensatz zu einem unendlichen Design. Es ist der Unterschied zwischen etwas, auf das man aufpassen muss, und einer Lösung, die genau das Richtige für einen tut. Es ist der Unterschied zwischen einem Ansatz, der darum kämpft, im Zeitalter der Cloud relevant zu bleiben, und einem Ansatz, der für den unbegrenzten Objektspeicher konzipiert wurde.
Beide Herangehensweisen haben das gleiche Ziel. Tiering und Synchronisierung versuchen beide, die Kapazitätsbeschränkungen lokaler Hardware zu überwinden, indem sie den Cloud-Speicher nutzen. Die Volumes auf Standard-NAS-Geräten können nur bis zu einer bestimmten Größe wachsen. Tiering in der Cloud ermöglicht es, dieses Volumen auszudünnen und die unbegrenzte, kostengünstige Kapazität der Cloud nutzen. Dies ist aber kein einfacher Vorgang, und er erfolgt auch nicht inkrementell oder granular.
Die Risiken von Cloud Tiering im IT-Betrieb
Der Aufwand, eine Schicht aufzubauen und sicherzustellen, dass alles tatsächlich am Backend ankommt, ist zu groß. Daher erfolgt das Tiering in großen, sperrigen Mengen – einer Verzeichnisstruktur oder einem großen Dateivolumen. Aus Sicht des Datenschutzes ist das eine große Schwäche. Wenn das Front-End-Gerät in die Knie geht, bevor das Tiering durchgeführt wird, sind die Daten wahrscheinlich weg.
Was passiert, wenn man beginnt, große Datensätze in der Cloud anzuhäufen? NetApp wird sagen, dass man all diese verschiedenen Backend-Volumes hinter einem Volume zusammenfassen könne. Cloud Tiering und Namespace-Aggregation klingen in einer Marketingbroschüre schön. Für denjenigen, der für das Management des Systems verantwortlich ist, stellt dies jedoch eine enorme Belastung dar. Man stellt Volumes her, füllt sie auf und entscheidet dann, ob man ein Tiering durchführt oder ein neues Volume erstellt und am Backend aggregiert.
Das Abrufen von Daten aus dem Tiering ist auch für die Anwendungen sehr störend. Möglicherweise muss man aufgrund sensibler Anwendungen verschiedene Volumes für Snapshots, Server, VMs und mehr verwalten. Letztlich steigt die Komplexität mit der Kapazität. Nimmt aber die Komplexität mit dem Wachstum zu, ist das die Definition einer schlechten Technologie.
:quality(80)/images.vogel.de/vogelonline/bdb/1891200/1891251/original.jpg)
Herausforderungen an den Storage
Cloud-native Anwendungen brauchen Cloud-native Speichersysteme
Es geht auch anders: einfach in der Cloud synchronisieren
Die Synchronisierung in der Cloud kehrt diesen Ansatz um. Alles wird immer in die Cloud gestreamt und dort verwaltet. Die Quelle der Wahrheit ist die Cloud, und das System hält die Betriebsdaten durch automatisches Caching aktuell. Man muss sich das Tiering so vorstellen, dass Daten mit sehr großen Lastwagen von vorne nach hinten transportiert werden. Kein Lieferwagen fährt ab, bevor er nicht voll ist. Ein synchronisiertes Dateispeichersystem ist dagegen eher wie ein Hochgeschwindigkeits-Förderband. Die Daten fließen kontinuierlich in das Cloud-Backend: in ein einziges unbegrenztes Cloud-Volumen, nicht in eine ständig wachsende Anzahl von lose aggregierten Datensätzen.
Beim Synchronisierungsmodell fließen die Daten, wenn sie am Edge benötigt werden, in Echtzeit zurück, unmittelbar nachdem der Endanwender auf die Datei geklickt hat. Es handelt sich um einen kontinuierlichen, granularen Prozess, der vom großen CAD-Modell bis hin zum Asset auf unterer Dateiebene gilt – alles läuft automatisch ab. Niemand muss darüber nachdenken, was er ins „Tiering“ verschieben will.
Das Auslagern oder Löschen von Daten aus dem Edge-Gerät geschieht beim Synchronisierungsmodell bequem und sehr, sehr schnell. Das liegt daran, dass die Daten bereits an die „Quelle der Wahrheit“ übertragen wurden. Ein Betreiber kann also ein unendliches Volumen mit der Erwartung unterhalten und sicher sein, dass er überall eine einheitliche Leistung erhält. Er muss nicht entscheiden, was im Edge und was im Backend liegt. Das macht das System automatisch. Allein aus betrieblicher Sicht ist dies eine enorme Verbesserung.
Traditionelle Storage-Anbieter bezeichnen ihre Tiering-Technologie vielleicht als Cloud, aber das ist sie nicht. NetApp hat hervorragende Arbeit geleistet, um seine Controller in der Cloud zu betreiben, aber die Systeme sind nicht dafür ausgelegt, unbegrenzt zu skalieren. Sie wurden für den Betrieb auf lokalen Rechnern entwickelt und optimiert. Ein System, das wirklich für die Cloud konzipiert ist, muss bis ins Unendliche skalieren können, ohne dass die Komplexität zunimmt oder man gezwungen ist, neue Volumes zu erstellen oder regelmäßige Datenmigrationen von einer Ebene zur anderen zu orchestrieren und zu beaufsichtigen. Ein echtes Cloud-System sollte all dies automatisch erledigen, so dass man sich keine Gedanken über Kapazität oder Datenschutz machen muss.
Probleme mit Dateien entstehen beim Skalieren. Wenn die Skalierung zu einem Anstieg der Komplexität führt, wird diese Komplexität schließlich das System zum Einsturz bringen. Cloud-native Dateisysteme, die für die Synchronisierung von Daten entwickelt wurden, sind so konzipiert, dass sie ohne Komplexität skalieren können und an einem einzelnen Standort ebenso effizient arbeiten wie in einem globalen Unternehmen. Die Auswirkungen auf Unternehmen mögen magisch erscheinen, aber letzten Endes handelt es sich lediglich um fortschrittliche Technologie.
*Der Autor: Andres Rodriguez, Gründer und CTO von Nasuni
(ID:48625376)