Wie User-Erwartungen die Entwicklung von Software-Defined Storage prägten

Die drei großen SAN-Herausforderungen und ihre Lösungen

| Autor / Redakteur: Alfons Michels* / Dr. Jürgen Ehneß

Nutzerwünsche können durchaus in Erfüllung gehen – und auch Technologien vorantreiben.
Nutzerwünsche können durchaus in Erfüllung gehen – und auch Technologien vorantreiben. (Bild: © Aaron Amat - stock.adobe.com)

Zu Zeiten der ersten Storage Area Networks erfüllten die so geschaffenen Speichersysteme noch nicht die Erwartungen der User. Alfons Michels von DataCore beschreibt die drei größten Herausforderungen und die entsprechenden Lösungen.

Alles begann mit der Einführung von Storage Area Networks (SAN), die die Datenverarbeitungslandschaft in Server und Speicher aufteilte und beide über das Netzwerk SAN miteinander verband. Zuvor war der Datenspeicher in die Rechner eingebaut beziehungsweise direkt angeschlossen. Das SAN, das zu seiner Einführung primär auf Fibre Channel basierte, verband nun als Zwischenschicht den Speicher mit den Rechnern, auf denen die Anwendungen liefen. Die durch diese Aufteilung entstandenen reinen Speicher waren zu jener Zeit noch weit entfernt vom aktuellen Standard. Der Ruf nach besseren Speichern wurde immer lauter, da die vorhandenen nicht die User-Erwartungen erfüllten.

Im Folgenden lesen Sie über drei zentrale Gründe, warum die Speicher nicht den aktuellen Anforderungen gewachsen waren, und wie Experten diese Herausforderungen lösten.

Herausforderung 1: Administration, Lizenzierung und Inkompatibilität

Die ersten Speichersysteme waren schwer zu administrieren. Sie hatten keine grafische Bedieneroberfläche und waren in ihren Funktionalitäten sehr eingeschränkt. Der Speicher war ein großer Festplattenblock, der zunächst zerteilt werden musste: Verantwortliche wiesen einzelnen Anwendungsservern fest definierte und nicht änderbare Bereiche dieses Festplattenblocks zu. Diesem Prinzip entsprechend, lizenzierten die Hersteller Speichersysteme – jede Unterteilung und jeden Anschluss eines Servers mussten Nutzer auch extra bezahlen. Dementsprechend war das Modell nicht beliebt, und der Ruf nach einer besseren Lizenzierung wurde immer lauter. Zudem waren die Systeme unterschiedlicher Hersteller nicht miteinander kompatibel – eine Eigenschaft, die sich größtenteils bis heute gehalten hat.

Lösung 1: Experten lösten diese Probleme, indem sie eine weitere Zwischenschicht einfügten – die Storage-Virtualisierung. Bei dieser Lösung ging es erst einmal darum, die großen monolithischen Speichersysteme kosteneffizient und einfach zu verwalten. Durch die einfachere Verwaltung, speziell die freie Zuweisung der Speicherressourcen, wurde auch das Lizenzierungsproblem gelöst, da nun nicht mehr jegliche Änderung einzeln bezahlt werden musste. Zudem konnten auch unterschiedliche, zuvor inkompatible Speichersysteme miteinander Daten austauschen – sowohl synchron als auch asynchron.

Auf diese Weise adressierte Storage-Virtualisierung eine immer schon dagewesene Kernanforderung aller IT-Nutzer: Sollten mehrere Komponenten oder ein komplettes Speichersystem ausfallen, dürfen erstens keine Daten verlorengehen und zweitens der laufende Geschäftsbetrieb nicht beeinträchtigt werden. Durch die neue Kompatibilität ist das nun auch zwischen Speichern unterschiedlicher Hersteller möglich. Darüber hinaus agiert die Storage-Virtualisierung als vollkommen transparente Zwischenschicht, die zwischen den Datenquellen automatisch hin- und herschalten kann, ohne dass die Anwendungen beziehungsweise deren Nutzer davon etwas mitbekommen. Für lokale Redundanz wird typischerweise die synchrone Spiegelung eingesetzt. Sie kompensiert einzelne Ausfälle vor Ort, ohne dabei den laufenden Betrieb zu beeinträchtigen.

Als weitere Absicherung, zum Beispiel gegen regionale Stromausfälle, kommt zusätzlich die asynchrone Replikation zum Einsatz. Entweder um im Katastrophenfall auf die Daten zugreifen zu können oder um alle Anwendungen inklusive deren Daten an dem weit entfernten Ort (in der Regel mehr als 200 Kilometer) neuzustarten.

Herausforderung 2: Performance

Die potentiellen Nutzer befürchteten, dass eine Virtualisierung des Storage die Zugriffsgeschwindigkeit auf die Daten bremsen würde. Langsamere Zugriffe auf die Daten würden den Einsatz und die Etablierung dieser Technologie aber behindern. Schließlich sind schnelle Reaktionszeiten der IT, die wesentlich vom Speicher abhängen, neben der Verfügbarkeit die zweite immer schon dagewesene Kernanforderung der Nutzer.

Lösung 2: Experten adressierten diese Anforderung mit zwei grundsätzlichen Lösungen. Zum einen mit einem Zwischenspeicher, dem so genannten Cache, und zum anderen mit der Parallelisierung von anstehenden Aufgaben. Damit ein Cache die Geschwindigkeit erhöht, muss er natürlich schneller als der dahinterliegende Speicher sein. Die erste Wahl ist natürlich das bis heute schnellste Speichermedium: der Arbeitsspeicher (Main Memory oder RAM) von Servern. Dieser Speicher ist allerdings flüchtig: Sobald die Stromversorgung unterbrochen wird, sind alle Daten weg – dieser Umstand erfüllt also nicht die Kernanforderung nach hoher Verfügbarkeit.

Dem können Verantwortliche leicht mit einer unterbrechungsfreien Stromversorgungen entgegenwirken, auch bekannt als UPS oder USV. Darüber hinaus sind die Daten im RAM als Cache durch die synchrone Spiegelung redundant vorhanden. Alternativ kann natürlich auch anderer schneller, nichtflüchtiger Speicher als Cache dienen – zum Beispiel Flash-Speicher, der allerdings nicht so schnell wie Arbeitsspeicher ist.

Bei der Parallelisierung von Aufgaben werden serielle Prozesse parallel zueinander bearbeitet. Dies wird durch einen Prozessoraufbau mit mehreren Rechenkernen und durch so genanntes Multi-Threading ermöglicht, das zu verschiedenen Taktzyklen unterschiedliche Aufgaben abarbeitet.

Dem Datenträgerinferno entronnen

Datenrettung nach Brandschäden

Dem Datenträgerinferno entronnen

29.10.19 - Wenn Festplatten, USB-Sticks oder SSDs nach einem Brand aus den Trümmern geholt werden und ihre Inhalte nirgends anders gesichert waren, ist noch nicht alle Hoffnung verloren. Erfahrene Spezialisten wie CBL Datenrettung können in vielen Fällen auch dann noch Daten rekonstruieren, wenn Datenträger schwer durch Feuer und Löschmittel beschädigt sind. lesen

Das Ergebnis beider Maßnahmen, Caching und Parallelisierung, kann sich sehen lassen. Anstelle der Kompensation möglicher Zeitverluste wurde eine enorme Leistungssteigerung erzielt. Speichersysteme hinter einer Speichervirtualisierung wurden aus Anwendungssicht deutlich schneller. Eine um Faktor 10 gesteigerte Performance durch diese Technologien ist keine Seltenheit, und die viel befürchtete Bremse durch die Zwischenschicht der Virtualisierung hat nahezu niemand in den vergangenen 20 Jahren erfahren.

Herausforderung 3: Physikalische Grenzen aufheben

Nachdem man mit Speichervirtualisierung nun große monolithischen Speicher hochverfügbar und hoch performant teilen konnte, forderten Kunden weitere Eigenschaften: Sie wollten physikalische Grenzen aufheben, indem sie beliebigen Speicher zu einer Management-Einheit zusammenführen. Zudem sollte die Technologie den Anwendungen den Speicher zuweisen, ohne diesen komplett zu blockieren, falls er gerade nicht benötigt wird.

Lösung 3: Experten nutzten die Virtualisierungszwischenschicht, um beides zu adressieren. Das Zusammenfassen von beliebigem Speicher ist unter dem Begriff „Pooling“ bekannt. Hier werden unterschiedliche physikalische Quellen, in diesem Fall Festplatten, Solid State Drives (SSDs) oder komplette Speichersysteme, zu einer logischen Ressource zusammengefasst und an die Anwendung(en) präsentiert.

Dass zugewiesener Speicherplatz einer Anwendung nicht gleich für alle anderen verloren ist, wird durch die im Storage-Umfeld als „Thin Provisioning“ bezeichnete Funktion erreicht: Einer Anwendung wird ein definierter Speicherplatz zugewiesen, aber nur der tatsächlich benötigte Platz wird belegt. So sind Nutzer beim definierten und zugeteilten Speicher wesentlich freier, und wenn einer mal zu großzügig bei der Zuteilung war, fällt das nicht negativ ins Gewicht.

Storage-Virtualisierung als Vorläufer von Software-Defined Storage

Was ist nun der Unterschied zwischen der Storage-Virtualisierung und Software-Defined Storage? Die Unterteilung der beiden ist mehr oder weniger fließend und unterscheidet sich je nach genutzter Quelle oder Ansprechpartner. Generell ist Software-Defined Storage (SDS) gleichzeitig auch eine Speichervirtualisierung, wobei Software-Defined Storage typischerweise noch weitere speicherspezifische Eigenschaften bietet, die es teilweise in reiner Speicher-Hardware nicht gibt. Die Speicherdienste werden für jeglichen Speicher einheitlich geboten, die von dem SDS verwaltet wird. Die Nutzer von SDS können unter anderem beliebig, absolut unterbrechungsfrei und ohne Leistungseinbußen zwischen unterschiedlichen Speicherherstellern, Speichertechnologien und sogar Betriebsmodellen, wie klassischem SAN-Design oder hyperkonvergiert, hin und her wechseln.

Fazit

Alles in allem kann man sagen, dass die vielfältigen Kundenanforderungen Software-Defined Storage zu dem gemacht haben, was er heute ist: ein unverzichtbarer Teil des modernen Rechenzentrums. Mit Software-Defined Storage holt man das Optimale aus seinen vorhandenen Ressourcen heraus und ist bestens für die Zukunft gewappnet.

Alfons Michels, Senior Product Marketing Manager bei DataCore Software GmbH.
Alfons Michels, Senior Product Marketing Manager bei DataCore Software GmbH. (Bild: DataCore)

*Der Autor: Alfons Michels, Senior Product Marketing Manager bei DataCore Software GmbH.

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 46162974 / Virtuelle Systeme)