Interview mit Stéphane Estevez zu Backup und Deduplizierungs-Themen auf der Storage Technology Conference 2015

Letztlich entscheidet der RZ-Leiter, ob das Disaster Recovery effizienter wird

| Redakteur: Rainer Graefen

Stéphane Estevez, Senior Product Marketing Manager EMEA
Stéphane Estevez, Senior Product Marketing Manager EMEA (Quantum)

Die Befürworter der objektorientierte Speicherung nehmen einen neuen Anlauf und wollen Cloud und Archivierung miteinander verbinden. Das geht allerdings nicht, ohne über SDS, DR, Tape, Datenschutz und einiges mehr zu reden. Storage-Insider sprach mit Quantums Geschäftsführer über die strategische Ausrichtung des Unternehmens.

Wie stehen die Chancen, dass Archivierung demnächst durch verteilte Dateisysteme und Objektspeicher stattfindet?

Bei vielen unserer Kunden sind Objektspeicher bereits heute als Storage-Tier bei der Archivierung im Einsatz, zusammen mit kostengünstigen Disk- und Cloud-Lösungen sowie Tape Libraries (LTO und LTFS).

Da die Wahl zwischen einem oder multiplen Speicherebenen von den klassischen Faktoren Skalierbarkeit, Speicherzeitraum, Lebenszyklus und der benötigten Zugriffszeit auf Daten abhängt, wird es niemals eine „One Size Fits All“-Lösung geben.

Und dennoch ist zu beobachten, dass Objektspeicher für die Langzeitarchivierung von Daten, die für die zukünftige Monetarisierung und Analyse zugriffsbereit sein müssen, immer beliebter werden. Man denke dabei etwa an nachrichtendienstlich relevante Satellitenbilder, bildgewaltige Video-Daten der Filmindustrie, CAD-Grafiken technischer Zeichner und Big Data-Studien in der Wissenschaft.

Die Use Cases für Objektspeicher sind branchenübergreifend, wobei Mittel und Zweck stets dieselben sind: Backup-Daten aus dem teuren Primärspeicher und dem Backup-Prozess entfernen und in eine Archivierungslösung verlagern, die in Zukunft einen schnellen Datenzugriff ermöglicht.

Ergänzendes zum Thema
 
Erleben Sie Frank Herold, Quantum, Referent der Storage Technology Conference 2015, persönlich

Ausschlaggebendes Argument: Im Vergleich zum „klassischen“ Replikationsansatz bieten Objektspeicher eine höhere Verfügbarkeit zu geringeren Kosten, denn in einem Single Namespace können ohne weiteres Hunderte PB an Daten skaliert werden, bei Bedarf auch geographisch verteilt an mehreren Standorten.

Beim Backup hat die Deduplizierung die Anzahl der Kopien auf ein Minimum von Eins reduziert? Werden wir das auch beim Disaster Recovery erleben?

Letztlich ist und bleibt die Strategie bei Backup und Disaster Recovery immer abhängig von den spezifischen Anforderungen des Anwenders: Er weiß selbst am besten, welches Datensicherungslevel er benötigt, wie lange die Daten vorgehalten und wie viel Zeit ein Restore in Anspruch nehmen sollte – und entsprechend auch wie viele Backup-Kopien am sinnvollsten sind, egal ob auf Disk, mit oder ohne Deduplizierung oder Tape.

So waren beispielsweise Tower of Hanoi oder die dreistufige GFS-Methode verbreitete Rotationsschemata, als Tape noch das Haupt-Backupmedium war. Heute zwar immer noch im Einsatz, werden immer mehr die Incremental-Forever-Strategie und das synthetische Backup angewendet. Deduplizierung ist tatsächlich zu einer bezeichnenden Größe beim Backup geworden, und könnte dazu beitragen, dass Administratoren ihre Strategie auch bei DR ändern.

Denn sie wissen, dass die DXi-Appliance die Größe des Speichers extrem reduziert und entsprechend die Bandbreite bei der Replikation zum DR-Standort, so dass Administratoren in der Lage sind, mehr Daten vorzuhalten ohne mehr Speicherplatz zu beanspruchen. Durch Deduplizierung speichern wir jeweils nur eine Instanz jedes Blocklets, doch vom logischen Standpunkt aus behält der Admin natürlich auch alle verschiedenen Backup-Versionen.

Viele Anwender scheinen Cloud-Storage als Medium für Backup und Archivierung nutzen zu wollen. Worauf sollte man als Anwender vorbereitet sein?

Bevor ich als IT-Entscheider in die kleinteiligen Vertragsdetails des Outsourcings springe, muss ich die Frage aller Fragen beantworten: Wiegt der Mehrwert, den die Cloud mir bietet, mehr als das Risiko?

Im Falle der Cloud ist man mit Pragmatismus und intelligentem Projekt- und Risikomanagement gut beraten, wobei alles mit der Klassifizierung der Daten steht und fällt. Die Cloud bedeutet im Vergleich zu einer internen Lösung häufig geringere Transparenz, was beim Kunden Angst provoziert – Angst vor dem Unbekannten.

Wenn Sie ein kleines Unternehmen leiten und nicht über eine Armee von IT- Spezialisten oder nur über begrenztes Budget verfügen, ist es sehr wahrscheinlich, dass ein Cloud-Backup oder eine DR-Lösung sicherer und zuverlässiger als Ihre eigene IT-Infrastruktur ist.

Gerade Disaster Recovery ist weiterhin ein vernachlässigtes Thema. Doch ist es tatsächlich ein höheres Risiko, Daten auszulagern oder über gar keinen Disaster Recovery-Plan zu verfügen? Gute Cloud Provider verfügen über die Prozesse, das Know-how und die notwendige Kompetenz, um die Komplexität langfristiger Datenvorhaltung zu beherrschen.

Vor allem bieten sie State-of-the-Art-Technologie, über die viele Unternehmen im eigenen Rechenzentrum gar nicht verfügen. Neben der Deduplizierung, die mit WAN-optimierter Replikation die Datenübermittlung in die Cloud deutlich einfacher macht, kann eine Hybrid Cloud insbesondere für größere Unternehmen ein optimaler Ansatz sein, um das Risiko zu minimieren und zugleich von Flexibilität und Kostenreduzierung ohne Kontrollverlust zu profitieren.

Alle großen Speicherhersteller wollen den Storage-Controller durch Software (SDS) ersetzen. Liegt die technische Zukunft tatsächlich in Software-Updates?

Es gibt keine standardisierte Definition von Software-Defined Storage. Doch wenn SDS bedeutet, eine zusätzliche Abstraktionsschicht über der Hardware hinzuzufügen, dann gibt es viele Datenmanagement-Lösungen, die zu hundert Prozent aus Software bestehen; oder die in einer Appliance verpackt sind, die regelbasiertes Storage Tiering auf Basis das Datenwertes bzw. Alters bieten.

Ein rein Software-definierter Ansatz bringt erhebliche Vorteile mit sich: die Kommodifizierung der zugrunde liegenden Storage-Hardware und eine einfachere Aufteilung in unterschiedliche Storageebenen, bei der die Daten je nach Relevanz auf verschiedene Speichermedien verteilt werden (Disk, Tape, Object Storage).

Aber er kann auch neue Herausforderungen mit sich bringen, beispielsweise können „Bottlenecks“ und Unsicherheiten bezüglich der zukünftigen Wartung und Updates entstehen. Oder es können Fragen aufkommen wie: Was, wenn die Anwender durch ein Software-Update oder einen Sicherheitsverstoß nicht auf ihre Daten zugreifen können?

Die Frage, ob Software die Zukunft der IT ausmacht, stellt sich nicht nur bei SDS – viele IT-Leiter stellten sich diese Frage bereits, als im Zuge der x86-Servervirtualisierung eine zusätzliche Abstraktionsschicht in die Intel-Welt eingebaut wurde. Stellen sie dies heute immer noch in Frage?

Wie bewerten Sie den aktuellen Hype um Ceph und OpenStack?

Ceph oder Swift sind beliebte Lösungen. Da der Markt sowohl Platz für kommerzielle als auch Open Source-Lösungen hat, wird es immer Unternehmen geben, die eine Open-Source- Lösung bevorzugen – etwa aus Sicherheits- oder Kontrollgründen.

Doch es bedarf wichtiger Kompetenzen seitens der Entwickler, um diese zu installieren, zu integrieren und zu verwalten. Diese Fähigkeiten sind aber nicht immer gegeben. Es gibt viele Service Provider, die On Top-Support bei einer Open Source-Lösung anbieten.

Doch letztendlich stellt sich die Frage, ob der ROI gegenüber einem kommerziellen Ansatz bei Open Source noch gegeben ist? Viele IT-Manager präferieren kommerzielle Lösungen, die vom Anbieter supportet werden und mehrere Schnittstellen sowie Integrationsmöglichkeiten bieten, so dass der Mehrwert für das Unternehmen größer ist.

Ceph oder Swift werden wahrscheinlich häufiger genutzt, sobald Management- und Integrationstools von Drittanbietern wie Inktank zur Verfügung stehen. Dadurch aber erhalten Open Source-Lösungen einen quasi-kommerziellen Charakter.

Momentan sieht es so aus, als ob lediglich die Early-Adopters wie beispielsweise die Cloud Provider über die Fähigkeiten, die Zeit und das Budget verfügen, das für die Integration von Open Source Object Storage-Lösungen nötig sind.

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 43254741 / Remote Backup)