Dem IT-Stillstand keine Chance, Teil 1

Den Storage-Controller durch Software ersetzen

| Autor / Redakteur: Walter Schadhauser / Tina Billo

Die virtuelle Disk ist beiden Datacore-Knoten zugeordnet und enthält die gespiegelten Daten beider Knoten. Im Katastrophenfall ist der Zugriff von jeder Seite auf alle Daten möglich.
Die virtuelle Disk ist beiden Datacore-Knoten zugeordnet und enthält die gespiegelten Daten beider Knoten. Im Katastrophenfall ist der Zugriff von jeder Seite auf alle Daten möglich. (Bild: Datacore)

IT-Systeme können ausfallen. Das kann für Unternehmen existenzgefährdend sein, sofern dabei Daten verloren gehen oder die „IT-Genesung“ nicht rasch genug erfolgt. Software-defined Storage bringt nun intelligente Features mit, die im Rahmen einer Business-Continuity- und Disaster-Recovery-Strategie eine attraktive Alternative zu klassischen Konzepten bieten.

Von Analysten, Marktforschern und Verbänden durchgeführte Untersuchungen sprechen eine klare Sprache: Unternehmen, die keine Ausfallzeiten ihrer IT oder Datenverluste beklagen, sind eher die Ausnahme als die Regel. Die Marktforscher von Gartner beziffern die Zeit, in denen Netzwerke, Systeme oder Anwendungen stillstehen, mit 16 bis 20 Stunden pro Jahr und das ist vermutlich noch tief gegriffen.

Das IT-Budget reicht nur zur Absicherung hochkritischer Systeme

Das Ponemon Institute schätzt, dass bei 95 Prozent aller Firmen infolgedessen geschäftsrelevante Daten mindestens einmal nicht für den Zugriff zur Verfügung stehen. In das gleiche Horn bläst der Branchenverband Bitkom: Gemäß einer Umfrage unter IT-Verantwortlichen sind immerhin 44 Prozent der deutschen Unternehmen jährlich von Datenverlusten oder Ausfällen betroffen.

Dass die Verwaltung immer größerer Informationsbestände und die zunehmende Zahl an gesetzlichen Vorgaben bezüglich deren Absicherung, Aufbewahrung und Verfügbarkeit die Sache nicht einfacher macht, liegt auf der Hand. Der externe Druck ist groß und nimmt jedes Jahr zu. Dies liegt in erster Linie daran, dass für das Datenmanagement nur Budgets bereitgestellt werden, die schon im Vorjahr zu niedrig waren. Es heißt also, mit weniger mehr erreichen.

Eine Schlüsselrolle fällt dabei der Speicherinfrastruktur zu. Diese ist jedoch für die

Umsetzung umfassender Datenschutzmaßnahmen und der Sicherstellung einer 99,999-prozentigen Verfügbarkeit von Diensten, Anwendungen und Informationen durch gewachsene Silo-Strukturen viel zu komplex.

Homogene Speicherlandschaften ließen sich besser schützen

Doch warum bremsen traditionelle Speicherkonzepte die Umsetzung umfassender Disaster-Recovery- (DR) und Business-Continuity-Maßnahmen (BC) aus, die den Schutz und die kontinuierliche Verfügbarkeit von Daten gewährleisten sollen?

Zu den Hauptgründen zählt sicherlich, dass in über Jahren gewachsenen IT-Landschaften vielfältige Systeme für unterschiedliche Zwecke zum Einsatz kommen. Diese reichen von Primärspeichern, Disk-Arrays und Archivlösungen über dedizierte Backup-Server bis hin zu vielen weiteren Komponenten.

Meist handelt es sich um Produkte mehrerer Hersteller, die verschiedene Protokolle unterstützen, keine gleichartigen Schnittstellen aufweisen und über proprietäre Software verwaltet werden müssen. Das wiederum steht in vielen Fällen der Automatisierung von Prozessen entgegen, die den unterbrechungsfreien Betrieb von Anwendungen sicherstellen und dafür sorgen sollen, dass Nutzer fortwährend und von jedem beliebigen Standort aus auf entscheidende Informationen zugreifen können.

Dies zeigt, dass neue Ansätze dringend erforderlich sind, die Speicherumgebungen umfassend vor Katastrophen schützen und das Gefahrenpotenzial minimieren. Aus Sicht von Datacore könnte diese Aufgabe Software-defined Storage (SDS) übernehmen – die Übertragung klassischer Hardware-Funktionen an eine intelligente Software – und damit in Zukunft zum Allheilmittel werden.

SDS ist mehr als nur Software-Steuerung von Festplatten

SDS steht im Grunde genommen dafür, bislang an die Hardware gebundene Funktionen softwareseitig abzubilden. Hierfür wird zwischen den Anwendungsservern und den Storage-Ressourcen eine Virtualisierungsschicht eingezogen. Über diesen zentralen Dreh- und Angelpunkt lassen sich Speicherdienste und Funktionen serviceorientiert sowie hersteller-, geräte- und technologieübergreifend bereitstellen. Dies bietet unter anderem den Vorteil, dass administrativ aufwändige Prozesse rund um die Sicherung, den Schutz, die Migration oder die Verfügbarkeit von Daten automatisiert werden können.

Alle für die Aufrechterhaltung laufender Geschäftsabläufe und zur Absicherung geschäftsrelevanter Daten nötigen Vorgänge lassen sich somit von einem einzigen Punkt aus steuern. Da die hierfür nötigen Leistungsmerkmale bereits integraler Bestandteil einer SDS-Lösung sind, müssen Unternehmen deutlich weniger in speziell auf die Sicherung und Wiederherstellung oder die automatische, regelbasierte Verlagerung von Daten ausgelegte Produkte investieren.

Lizenzkosten einsparen

Ebenso wenig sind sie gezwungen, zusätzliche hardwareabhängige Software-Lizenzen zu erwerben, um ihre Speichergeräte für diese Aufgaben fit zu machen. Software-defined Storage bietet demgemäß fast alle für die Umsetzung wirksamer Disaster-Recovery- und Business-Continuity-Strategien unverzichtbaren Bausteine aus einer Hand.

Davon profitieren auch kleinere und mittelständische Firmen, die aus Kostengründen bislang vor der Einführung notwendiger Präventionsmaßnahmen zurückschreckten. SDS eröffnet ihnen die Möglichkeit, ihre geschäftskritischen Daten genauso zu schützen, wie es bislang Großunternehmen vorbehalten war, ohne dass dies ihr Budget überstrapaziert. Denn jede Minute, in der Daten nicht zugänglich sind – sei es in Folge von Hardwareausfällen, Beschädigungen oder Komplettverlust - kostet bares Geld.

Doppelspiegel mit iSCSI

Um dies zu vermeiden, bieten sich Techniken wie die synchrone Spiegelung an. I/O-Ereignisse werden in Echtzeit repliziert und geschriebene Daten gleichzeitig auf zwei voneinander unabhängigen Storage-Virtualisierungsknoten gespeichert. Diese können sich entweder im gleichen Rechenzentrum oder an zwei bis zu 100 Kilometer voneinander entfernt liegenden und über ein Metropolitan Area Network (MAN) miteinander verbundenen Standorten befinden.

Von Administratoren aus dem physischen Speicherpool geräteübergreifend erstellte virtuelle Festplatten lassen sich desgleichen mit einem synchronen Spiegel versehen, so dass zwei Knoten als geteilte Quelle zur Verfügung stehen. In diesem Fall hält jedes der beiden über iSCSI oder Fibre Channel miteinander verbundenen Systeme die gleichen Daten vor, eines davon die Haupt- und das andere die Sekundärkopie.

Lese- oder Schreibanfragen von den Anwendungsservern, für die lediglich eine virtuelle Festplatte sichtbar ist, werden simultan an beide Knoten gestellt (Aktiv/Aktiv). Im Normalbetrieb beantwortet diese das System mit der Hauptkopie, aber es lassen sich auch andere Einstellungen vornehmen.

Unterbrechungsfreier Betrieb, auch wenn ein Knoten Probleme hat

Beide Virtualisierungsknoten gleichen die Daten permanent ab, so dass die Sekundärkopie bei Änderungen ebenfalls aktualisiert wird. Dies gewährleistet, dass stets zwei für den operativen Betrieb nutzbare bitweise identische Dateien vorliegen.

Sind auf den Host-Systemen MPIO- (Multipath I/O) oder ALUA-Treiber (Asymmetric Logical Unit Access) installiert, erfolgt beim Ausfall eines Pfads ohne jeglichen manuellen Eingriff oder Ausfallzeit die Umschaltung (Failover) auf den zweiten noch aktiven Virtualisierungsknoten. Dies stellt sicher, dass weder das Speichernetzwerk noch die Storage-Systeme „Single Points of Failure“ innerhalb der Architektur darstellen. Folglich kommt es weder zu Betriebsstörungen oder Unterbrechungszeiten, ganz zu schweigen von Datenverlusten.

Anwendungen können also beständig auf die Daten zugreifen, auch dann, wenn an einzelnen Standorten, Knoten, Speichersystemen, Übertragungskanälen oder weiteren Komponenten systembedingte Wartungen, Neukonfigurationen, Erweiterungen und Upgrades vorgenommen oder diese ausgetauscht werden. Nach Wiederanlauf findet automatisch und transparent für die Anwendungsserver eine Resynchronisierung der Festplatteninhalte und die Wiederherstellung der I/O-Pfade statt.

Den zweiten Teil lesen Sie morgen auf Storage-Insider

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 43633079 / RZ-Technik)