Advertorial: Die Hardware wird ersetzbar

Die 5 größten Irrtümer über Software-defined Storage

| Autor / Redakteur: Advertorial Datacore / Advertorial

(Quelle: DataCore)

Immer wieder hört man, SDS sei eine neue Marketingverpackung für bekannte Produkte und Lösungen. Allerdings steckt hinter SDS nach unserem Verständnis deutlich mehr. Neben dem öffentlichen Marketing-Hype gibt es handfeste wirtschaftliche wie technologische Argumente.

„Software-defined“ ist derzeit vieles in der IT-Branche: Rechenzentren, Netzwerk und natürlich auch der Speicher. Software-defined Storage (SDS) scheint dabei für eine ganze Reihe höchst unterschiedlicher Lösungen zu stehen, von der intelligenten SAN-Appliance über Server-integrierten Storage bis hin zur reinen Software-Lösung.

Das breite Spektrum an Softwarelösungen für die kommenden Speichergenerationen führt derzeit zu vielen Aussagen, die vielfach nur Halbwissen widerspiegeln. Wir beleuchten an dieser Stelle einige der größten Irrtümer über SDS:

1. Irrtum: SDS ist alter Wein in neuen Schläuchen

SDS ist ein Konzept, und zwar ein zukunftstragendes. Software-basiert bedeutet Hardware-unabhängig. Hardware-Unabhängigkeit wiederum geht einher mit der Austauschbarkeit der Speicherhardware. Aus den klassischen, statischen SAN-Architekturen werden dynamische Infrastrukturen, die auf Veränderung ausgerichtet sind. SDS verändert damit das Investitionsverhalten der Unternehmen nachhaltig. Kosten werden gesenkt.

Die dahinter stehende Kerntechnologie ist die Speichervirtualisierung. Sie ermöglicht eine neue Sicht auf Speicherarchitekturen im Unternehmen. SDS ist eine zentrale Plattform für das Management von Speicherkapazität, Performance und Datensicherheit. Synchrone Spiegelung, Thin Provisioning, Snapshots, asynchrone Replikation, High-Speed-Caching, Auto-Tiering, CDP und andere Services benötigen keine herstellerspezifischen Tools oder Zusatzlizenzen, sie stehen für sämtliche Hardware geräteübergreifend zu Verfügung.

Die Software-Schicht ermöglicht neben dem zentralen Management heterogener Speicherressourcen auch die weitgehende Automatisierung von Prozessen. Insbesondere in Umgebungen mit hunderten virtuellen Servern ist dies ein erheblicher Zeit- und Kostenfaktor. So fungiert SDS als ein universaler Storage-Controller für Disk, Flash, SSD und Cloud-Speicher. Analyse, Auswertung und Diagnose über die Speichernutzung sind erst über die zentrale Plattform sinnvoll.

Diese Zentralisierung erlaubt darüber hinaus die Einbettung in die Management-Tools der Hypervisoren wie VMware oder Hyper-V. In der Praxis reichen die Kenntnisse zur Administration eines herkömmlichen Windows-Servers heute aus, um ein SAN auf Basis von SDS zu verwalten.

2. Irrtum: Jeder macht SDS, jeder kann SDS

Mit dem Begriff Software-defined Storage wird am Markt viel jongliert – und zwar sowohl von klassischen Hardware-Anbietern, die eigentlich durch den Abverkauf von Storage-Boliden bekannt sind, als auch von Software-Unternehmen, deren Expertise vornehmlich im Bereich Server und Hypervisoren zu finden ist. Für ein echtes SDS ist aber nur der reine Speichersoftware-Ansatz geeignet, wie ihn Datacore verfolgt.

Der Lebenszyklus einer Software ist im Vergleich zur Hardware länger, die Produktaktualisierung erfolgt jedoch beträchtlich schneller. So kann eine SDS-Plattform innerhalb weniger Wochen neue Technologien (Protokolle, Schnittstellen, Diskgrößen, Prozessor- und Controller-Generationen usw.) integrieren, während bei Hardware-Lösungen aus technischen wie vertriebstaktischen Gründen deutlich längere Integrationszyklen der Fall sind.

Die Flexibilität, State-of-the-Art zu bleiben, ist durch einen unabhängigen Software-Ansatz langfristig gewährleistet. Die Software versorgt hierbei nicht nur die heterogenen Speicherressourcen mit immer neuen Leistungsmerkmalen, sondern ist selbst auch transportabel und kann auf neuen Servergenerationen zu höherer Leistung ausgebaut werden.

3. Irrtum: SDS ist eine Software-Schicht, die nur zusätzlich kostet

SDS mit Lösungen wie Sansymphony-V haben sich zunächst im Mittelstand und in sehr Budget-sensiblen Umfeldern wie etwa Krankenhäusern etabliert. Diese „Early Adaptors“ der zu Grunde liegenden Storage-Virtualisierung begründeten ihre Entscheidung einfach damit, dass sie akute Anforderungen gar nicht anders finanzieren konnten.

Erst die Kombination aus Midrange-Hardware und der intelligenten Software-Schicht konnte die Probleme lösen. Die Software setzt auf Standardservern auf und nutzt deren Ressourcen für eine Optimierung der angeschlossenen, günstigeren Hardware, um Enterprise-Leistungsmerkmale zu realisieren.

Üblicherweise wird ein Storage-System alle drei bis fünf Jahre gegen eine neue Hardware-Generation ausgetauscht, schon allein, um erhöhte Wartungskosten für Altgeräte zu vermeiden. Aufwändige Datenmigrationen und eine Neuschulung der Mitarbeiter auf die neuen Systeme sind mit dem Hardware-Austausch verbunden. Um für Unwägbarkeiten gewappnet zu sein, wurden die Lösungen überproportioniert.

Eine SDS-Architektur beseitigt diesen unwirtschaftlichen Speicherbetrieb, da Hardware unabhängig vom Anbieter bei Bedarf marktgerecht und nach optimalem Preis-/Leistungsverhältnis erweitert werden kann. Die Softwareschicht ermöglicht dabei Migrationen im laufenden Geschäftsbetrieb ohne Ausfallzeiten. Die vorhandene Hardware kann mit eingebunden und für weniger priorisierte Aufgaben wie Archivierung oder Tests weiter und optimal genutzt werden.

4. Irrtum: SDS ist eine Performance-Sackgasse

In der Tat sehen wir bei den hyper-konvergenten Lösungen, dem Server SAN, oftmals Beschränkungen bei der Skalierbarkeit. Anders verhält es sich bei der Datacore-Plattform. SDS beschreibt zunächst die Virtualisierung physischer SANs. Eine relativ neue Entwicklung sind Virtual SANs, die Speicherressourcen auf der Applikationsseite als geteilten Speicher für virtuelle Maschinen zur Verfügung stellen. Herkömmliche Virtual SAN-Lösungen benötigen dabei allerdings SSD und skalieren dennoch nicht über KMU- oder Abteilungsebene hinaus.

Zunächst kann das Datacore Virtual SAN auf bis zu 64 physische Server gestreckt und mit ausreichend Performance auch ohne SSD unterstützt werden. Die Nutzung des DRAM in den Knoten als Lese-/Schreib-Cache bei der Datacore-Lösung bedeutet einen erheblichen Leistungsvorteil gegenüber virtuellen SANs, von denen als Lese-Cache nur langsamerer Flash-Speicher verwendet wird.

Bei noch höheren Anforderungen kann das virtuelle SAN aber auch nahtlos in das SAN-Umfeld mit SANsymphony-V integriert werden. Performance und Kapazität können dadurch nahezu ohne Beschränkung wachsen. Virtuelle SANs von Datacore eignen sich als Shared Storage für VMware- und Hyper-V-Umgebungen, zur Leistungssteigerung geschäftskritischer Anwendungen, erzeugen eine höhere Dichte virtueller Desktops pro Server und reduzieren die Kosten und Komplexität gegenüber dezentralem Speicher.

SDS beherrscht in der Regel automatisches Tiering zwischen heterogenen Speicherressourcen. Mit dem Auto-Tiering migriert die Storage-Software Datenblöcke von langsamerer auf schnellere SSD- oder Flash-Hardware automatisch. So können Performance-Steigerungen von bis zu 500 Prozent bei geschäftskritischen Applikationen wie Datenbanken erzielt werden. Durch die Verteilung der I/O-intensiven Workloads auf Datenblockebene können die teuren Ressourcen jedoch sehr effizient eingesetzt werden.

Im Gegensatz zu Hardware-Lösungen, die oft auf nur zwei Speicherklassen ausgelegt sind, kommt eine SDS-Lösung wie Sansymphony-V bereits auf 15 Tiers. Damit kann die Optimierung noch feinkörniger erfolgen und auch Qualitätsunterschiede bei verschiedenen SSD-Klassen abbilden. Dadurch, dass das Tiering geräteunabhängig erfolgt, können SSD-Komplettsysteme ebenso eingesetzt werden wie einfache PCIE-Karten mit SSDs, die in den Server eingebaut werden.

Wenn im Umfeld virtueller Maschinen über Performance gesprochen wird, erwartet man zunächst Flash oder SSD. Im Vergleich zu diesen ist DRAM jedoch um ein Vielfaches schneller, insbesondere bei Schreibprozessen. Mit einer Hardware-unabhängigen SDS-Lösung wie Sansymphony-V kann diese Server-Ressource für intelligente Caching-Algorithmen genutzt werden, um Lese- und Schreibzugriffe auf den darunter liegenden Storage zu beschleunigen. Da die Speichervirtualisierung auf Datenblockebene erfolgt, können diese zudem zu einer optimalen Schreibgröße gebündelt werden, was bei SSD zu einer höheren Haltbarkeit führt.

5. Irrtum: SDS ist ein komplett neues Konzept

Ebenso wenig wie er ein alter Hut ist, ist der Software-defined Storage-Ansatz auch nicht komplett neu. Datacores Mission-Statement von 1998 lautete »Software-driven Storage Architecture«, und seither hat man die Sansymphony-V-Software konsequent in diese Richtung weiterentwickelt. Heute vertrauen über 15.000 Kunden auf die SDS-Plattform von Datacore. Mittlerweile sind nicht nur die Analysten von IDC, Forrester und Gartner überzeugt, dass Storage in Zukunft über die Software definiert wird. Auch die in der Regel Hardware-orientierten großen Storage-Hersteller haben den Trend erkannt und beginnen ihre Lösungen entsprechend zu positionieren.

Erstaunlich ist diese Einsicht, weil sie es waren, die Storage-Infrastrukturen lange Zeit als proprietäre Inseln behandelten, was ihnen hohe Margen und unfreiwillige Kundenbindungen bescherte. SDS ist deswegen mehr als ein Hype, es ist ein Paradigmenwechsel: Hardware wird zur Standardware, unabhängig von Entwicklungen auf der Ebene von (Giga-)Bits und (Peta-)Bytes.

Der Trend zu Software-defined Storage ist dabei nicht zwangsläufig mit dem exponentiellen Datenwachstum zu begründen. Vielmehr ist es die wirtschaftliche Vernunft gegen das lange verbreitete „Ex und Hopp“ (Rip & Replace). Durch die Flexibilität virtualisierter Rechenzentren drängt SDS jetzt mit Macht voran. Und die dafür notwendige Technologie kommt auch nicht aus dem Nichts, sie ist längst ausgereift und wirtschaftlich sinnvoll.

Software-defined Storage stellt die Umsetzung eines flexiblen Unified Storage-Konzeptes dar, das sich für kleine und mittelständische ebenso wie für große Unternehmen eignet. Durch die logische Trennung von Software-Funktionalität und Speicher-Hardware erhalten Unternehmen die Freiheit und Flexibilität, Speicherarchitekturen langfristig beizubehalten und Business Continuity für dynamische Geschäftsprozesse zu schaffen.

SDS-Technologien wie Datacore SANsymphony-V werden bereits seit 16 Jahren im Produktivbetrieb eingesetzt und sind auf der Basis dieser praktischen Erfahrung weiterentwickelt worden. Wer die Anschaffung neuer Hardware, den Einsatz von Flash-Speicher oder Server- und Desktopvirtualisierungsprojekten plant, wird die evidenten Vorteile einer SDS-Plattform genauer prüfen.


Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 43524088 / Virtuelle Systeme)