SDS – Buzzword oder Zukunftstechnologie?

Fünf gute Gründe für Software-Defined Storage

| Autor / Redakteur: Stephan Ring* / Dr. Jürgen Ehneß

Für die Zukunft gerüstet – mit SDS?
Für die Zukunft gerüstet – mit SDS? (Bild: © kentoh - stock.adobe.com)

Die Menge und der Wert von Daten steigen ständig, doch leider wachsen weder IT-Budgets noch die IT-Teams mit. Software-Defined Storage (SDS) ist deshalb für viele Unternehmen der Ausweg, um die wachsenden Herausforderungen rund um das Speichern und Aufbewahren von Daten zu meistern.

Die Technologie Software-Defined Storage (SDS) ist mehr als ein Buzzword, und klar ist: Es gibt viele gute Gründe für SDS. Im Folgenden finden Sie fünf schlagende Argumente, warum sich der Wechsel lohnt.

1. Geringere Hardware- und Schulungskosten

Üblicherweise wird ein Storage-System alle drei bis fünf Jahre gegen eine neue Hardware-Generation ausgetauscht – beispielsweise um erhöhte Wartungskosten für Altgeräte zu vermeiden. Allerdings mussten in diesem Fall bisher Daten aufwändig migriert und Mitarbeiter geschult werden. Zugleich waren die Lösungen oft überproportioniert, um für Unwägbarkeiten gewappnet zu sein. Eine SDS-Architektur beseitigt diesen unwirtschaftlichen Speicherbetrieb, da Nutzer die Hardware bei Bedarf anbieterunabhängig und kosteneffizient erweitern können. Die Software-Schicht ermöglicht dabei Migrationen im laufenden Geschäftsbetrieb – ohne Ausfallzeiten. Die vorhandene Hardware kann eingebunden und für weniger priorisierte Aufgaben – etwa Archivierung oder Tests – weiter genutzt werden.

2. Permanente Hochverfügbarkeit

Der heutige Anspruch permanenter Verfügbarkeit der IT-Ressourcen lässt weder Ausfallzeiten noch ein Verlustrisiko wertvoller Daten zu. Unternehmensanwendungen müssen kontinuierlich verfügbar sein und absolut unterbrechungsfrei laufen. Jede Minute, in der kein Datenzugriff möglich ist, verursacht enorme Kosten. Zugleich war Hochverfügbarkeit (High Availability/HA) mit transparentem Failover lange nur durch High-End-Speichersysteme mit zusätzlichen Software-Lizenzen möglich. Diese bedeuteten eine Investition im sechsstelligen Euro-Bereich und waren damit für viele Unternehmen zu teuer. Erst durch unabhängige Speichervirtualisierung auf reiner Software-Ebene und mit „Hardware von der Stange“ können Nutzer diese Ausgaben drastisch senken und kostengünstig eine redundante Infrastruktur aufbauen. Neben dem finanziellen Aspekt ermöglicht es SDS, technisch großvolumige SATA-Platten und schnellere SAS-Spindeln zu integrieren oder Flash/SSD in Hochverfügbarkeitskonzepte einzubinden.

3. Effektive Disaster Recovery

Einige Storage-Hersteller vermarkten Hochverfügbarkeitslösungen mit Ausfallzeiten von (nur) wenigen Stunden, andere propagieren HA-Konzepte innerhalb einer Storage-Box. Anders in einer SDS-Architektur. Hier bedeutet High Availability tatsächlich keinerlei Ausfallzeit, und zwar auf der Basis räumlich getrennter Ressourcen. Neben dieser echten Hochverfügbarkeit bietet eine SDS-Plattform umfassende Möglichkeiten für Notfallszenarien (Disaster Recovery). In einem ausgereiften Software-Stack sind dafür Snapshots, Continuous Data Protection (CDP) und asynchrone Replikationen integriert. Beim Beispiel asynchrone Replikation können Remote-Rechenzentren die Daten von Außenstellen und Abteilungen in der Zentrale sichern (Many-to-One) oder im Katastrophenfall für die Wiederherstellung der Zentrale genutzt werden (One-to-Many). Kostenintensive, passive Ausweichrechenzentren werden durch diese multidirektionale Disaster Recovery obsolet.

4. Mehr Performance durch Caching

Wenn im Umfeld virtueller Maschinen über Performance gesprochen wird, denken die meisten zunächst an Flash oder SSD. Im Vergleich zu diesen ist DRAM (Dynamic Random Access Memory, „dynamisches RAM“) jedoch um ein Vielfaches schneller, insbesondere bei Schreibprozessen. Hinzu kommen weitere Vorteile: RAM ist als Standardkomponente relativ kostengünstig. Zudem entlastet RAM die Anwendungs-Server, sodass diese andere Aufgaben bearbeiten können. Obendrein verlängert er die Lebensdauer herkömmlicher Speicherkomponenten, indem er die Belastung durch Seitenflattern minimiert. Mit einer Hardware-unabhängigen SDS-Lösung kann diese Server-Ressource für intelligente Caching-Algorithmen genutzt werden, um Lese- und Schreibzugriffe auf den darunter liegenden Storage zu beschleunigen. Da die Speichervirtualisierung auf Datenblockebene erfolgt, können diese Datenblöcke zudem zu einer optimalen Schreibgröße gebündelt werden, was bei SSD zu einer höheren Haltbarkeit führt.

5. Effizienz durch zentrales Speichermanagement

SDS ist eine zentrale Plattform für das Management von Speicherkapazität, Performance und Datensicherheit. Synchrone Spiegelung, Thin Provisioning, Snapshots, asynchrone Replikation, High-Speed-Caching, Auto-Tiering, Continuous Data Protection (CDP) und so weiter benötigen keine herstellerspezifischen Tools oder Zusatzlizenzen, sondern stehen geräteübergreifend zu Verfügung. Die Software-Schicht ermöglicht es, neben dem zentralen Management heterogener Speicherressourcen Prozesse weitgehend zu automatisieren. Das ist insbesondere in Umgebungen mit hunderten virtuellen Servern ein erheblicher Zeit- und Kostenfaktor. SDS fungiert dabei als ein universaler Storage-Controller für Disk-, Flash-, SSD- und Cloud-Speicher. Die Speichernutzung zu analysieren, auszuwerten und zu untersuchen, ist erst über die zentrale Plattform sinnvoll. Die Prozesse zu zentralisieren, erlaubt es darüber hinaus, die Management-Tools der Hypervisoren wie VMware oder Hyper-V einzubetten. Zu guter Letzt ist zentrales Speichermanagement einfach umzusetzen: In der Praxis reichen die Kenntnisse zur Administration eines herkömmlichen Windows-Servers heute aus, um ein SAN auf Basis von SDS zu verwalten.

Fazit

Software-Defined Storage stellt ein flexibles Konzept für globale Storage-Services dar, sowohl für kleine und mittelständische als auch für große Unternehmen. Durch die logische Trennung von Software-Funktionalität und Speicher-Hardware erhalten Firmen die Freiheit und Flexibilität, ihre Speicherarchitekturen langfristig beizubehalten und Business Continuity für dynamische Geschäftsprozesse zu schaffen. Damit steht der Weg offen, zukünftige Speicherlösungen effizienter zu gestalten und an die dynamischen Geschäftsziele anzupassen.

Stephan Ring, Channel Marketing Manager EMEA bei DataCore.
Stephan Ring, Channel Marketing Manager EMEA bei DataCore. (Bild: DataCore)

*Der Autor: Stephan Ring, Channel Marketing Manager EMEA, DataCore

Storage im ganzheitlichen Rechenzentrum leicht gemacht

Storage aus der Datacenter-Steckdose

Storage im ganzheitlichen Rechenzentrum leicht gemacht

20.09.19 - Storage ist eine der ältesten Disziplinen im Datacenter überhaupt und dürfte wohl die größten technologischen Entwicklungen erfahren haben. Doch nun bricht eine neue Zeit an, in der die solitäre Betrachtung der Speichertechnologie als Insel im Datacenter bald vorüber sein dürfte. lesen

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 46139297 / Allgemein)