Unternehmensdaten effektiv schützen

Software-defined Storage komplettiert Datenschutzkonzepte

| Autor / Redakteur: Robert Thurnhofer / Tina Billo

Robert Thurnhofer ist Senior Marketing Manager Central Europe bei Datacore.
Robert Thurnhofer ist Senior Marketing Manager Central Europe bei Datacore. (Bild: Datacore)

Software-defined Storage (SDS) integriert grundlegende Technologien für die Sicherung und Wiederherstellung von Daten. Der system- und plattformübergreifende Ansatz eignet sich für hybride Dateninfrastrukturen mit physischen und virtuellen Systemen, zentralen und lokalen Ressourcen, hyperkonvergenten Systemen und Cloud-Anbindung.

Das Einschleusen von Schadsoftware beispielsweise im Zuge von Ransomware-Angriffen ist nur eine von vielen möglichen Ursachen, die zum Verlust von Daten führen können. Technische Defekte, überlastete Infrastrukturen oder der "Risikofaktor Mensch" sind weitere potenzielle Gefahrenquellen. Den dadurch anwachsenden Anforderungen, insbesondere in heterogenen, teils virtualisierten Umgebungen, kann die herkömmliche für umfassende Disaster-Recovery- (DR) und Business-Continuity-Maßnahmen (BC) genutzte Speicherinfrastruktur jedoch oft nicht mehr standhalten.

BC- und DR-Funktionen inklusive

Software-defined Storage (SDS) integriert zahlreiche Leistungsmerkmale für die effiziente und intelligente Datenhaltung, die sich speicherklassen- sowie geräte-übergreifend nutzen lassen. Für Unternehmen, die im Rahmen ihrer BC- und DR-Strategie nach Zentralisierung und Automatisierung suchen, ist der Wechsel auf SDS daher eine attraktive Alternative.

Administrativ aufwändige Prozesse rund um die Sicherung, den Schutz, die Migration oder Verfügbarkeit von Daten können so automatisiert und zentral gesteuert werden. Da die hierfür nötigen Leistungsmerkmale integraler Bestandteil einer ausgereiften SDS-Lösung sind, müssen Unternehmen deutlich weniger in speziell auf die Sicherung und Wiederherstellung ausgelegte Produkte investieren.

Auto-Failover minimiert Ausfallzeiten

Um Ausfallzeiten zu vermeiden, werden I/O-Ereignisse parallel auf zwei voneinander unabhängigen SDS-Knoten synchron gespiegelt. Diese Knoten, in der Regel x86-Standardserver, können bis zu 100 Kilometer weit voneinander entfernt liegen und bereits eine wichtige Absicherung bedeuten. Die Wiederherstellung bei Ausfall einer Seite erfolgt ohne manuelle Eingriffe (Auto-Failback).

Asynchrone Remote-Replikation als Notfallsicherung

Noch weiter entfernte Standorte sichern sich gegenseitig und bidirektional ab, was den Austausch und die schnelle Fernwiederherstellung von Daten nach Ausfällen ermöglicht, sowie das Risiko von Verlusten minimiert. Dies garantiert, dass der Geschäftsbetrieb auch nach schwerwiegenderen IT-Ausfällen am Hauptproduktionsstandort unausgesetzt weiterläuft. Dekomprimierung und Deduplizierung unterstützen eine optimale Bandbreitennutzung.

Snapshots und CDP

Online-Snapshots erfassen auf einem virtuellen Laufwerk gespeicherte Datenbestände zu einem bestimmten Zeitpunkt. Meist werden sie in vordefinierten Intervallen angelegt. SDS- Lösungen ermöglichen es aufgrund der Zusammenfassung unterschiedlicher physischer Storage-Ressourcen in einen Pool, Snapshots über verschiedene Speicherklassen zu übertragen. Sie werden durch differentielle Sicherung relativ klein gehalten, um sie kosteneffektiv zu lagern und schnell übertragen zu können.

Dies bedingt jedoch, dass sie auch Beschädigungen durch Nutzer- und Anwendungsfehler, fehlerhafte Upgrades oder Viren mit transportieren. Deshalb integrieren moderne SDS-Lösungen Technologien zur kontinuierlichen Datensicherung und -wiederherstellung (Continuous Data Protection, kurz CDP). Sie liefern eine fortlaufende Datensicherung auf Block- Level und damit eine stufenlose, granulare Wiederherstellung früherer Systemzustände.

Migration und Performance zur Prävention

Datenkorrumpierung und Ausfälle sind nicht selten Folge von Systemüberlastung und Performance-Problemen. So nutzt die SDS-Plattform von Datacore Hochgeschwindigkeits-Caching, optionalen Flash und ein fünfzehnstufiges Auto-Tiering (Speicherklassen), um Daten performant und kosteneffizient vorzuhalten und zu bewegen. Dabei greift das Storage-Pooling nicht nur über einzelne Geräte, sondern umspannt SAN, lokalen Speicher, hyperkonvergente Systeme und Public Cloud-Angebote.

Parallele I/O-Verarbeitung

Darüber hinaus ermöglicht Datacore erstmals eine parallele I/O-Verarbeitung in den heute gängigen Mehrkernprozessoren. Vor allem lastenintensive Datenverarbeitungsprozesse, Datenbanken und Analysen profitieren von einer Performance-Vervielfachung. Gleichzeitig können virtuelle Maschinen auf hyperkonvergenten Systemen dichter gepackt und damit Einsparpotenziale auf bislang unerreichtem Niveau erzielt werden.

Datacore adressiert das gesamte Anwendungs- und Infrastrukturspektrum.
Datacore adressiert das gesamte Anwendungs- und Infrastrukturspektrum. (Bild: Datacore)

Verfügbar ist die Parallel-I/O-Technologie heute in Datacore Hyper-Converged SAN und SANsymphony. Sie repräsentieren effiziente SDS-Plattformen für Hochverfügbarkeits-, Business-Continuity- und Disaster-Recovery-Strategien in modernen Rechenzentren.

* Robert Thurnhofer ist Senior Marketing Manager Central Europe bei Datacore

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44879735 / Branchen/Mittelstand/Enterprise)