Suchen

Interview mit Dr. Axel Koester, Keynote-Sprecher auf der STORAGE Technology Conference 2017 Heiße Daten, die nur ein kurzes Leben haben, und coole Objekte

| Redakteur: Rainer Graefen

Die Datenmassen stehen vor den Analysemaschinen und warten auf ihre Auswertung. Doch was soll man mit Ergebnissen, die mit fehlerhaften Daten und fehlerhaften Prozessoren gewonnen wurden, vernünftiges tun? Dr. Axel Koester wird in seiner Keynote auf der STORAGE Technology Conference 2017 über dieses Dilemma und andere Storage-Visionen referieren.

Firmen zum Thema

Demnächst starten wieder die Insider-Diskussrunden auf der Storage Technology Conference
Demnächst starten wieder die Insider-Diskussrunden auf der Storage Technology Conference
(Bild: Storage-Insider)

Storage-Insider: Storage Class Memory hat das Image den Hauptspeicher ersetzen und als Universalspeicher im Server dienen zu können. Was fehlt SCM noch, um DRAM und externe Speicher zu ersetzen?

Ergänzendes zum Thema
Hier geht es zur Anmeldung für die STORAGE Technology Conference 2017

Die »STORAGE Technology Conference 2017« wird von der Vogel IT-Akademie gemeinsam mit marktführenden Lösungsanbietern an vier verschiedenen Terminen und Orten durchgeführt. Auf dem Ganztagsprogramm stehen Keynotes von Storage-Experten, zahlreiche Fachvorträge und Workshops mit Umsetzungsbeispielen aus der Praxis sowie Roundtables zum Meinungs- und Erfahrungsaustausch. Teilnehmer können sich außerdem über neueste Storage-Technologien informieren und das Matchmaking-Tool zur Vereinbarung von persönlichen One-on-One-Meetings mit den passenden Ansprechpartnern nutzen.

Termine & Anmeldung

  • 11.04. Hamburg
  • 24.04. Bonn
  • 02.05. Frankfurt
  • 10.05. München

Die Teilnahmegebühr beträgt 290 Euro (zzgl. MwSt.). Registrieren Sie sich auf Storage-Insider und zahlen Sie unter Angabe des Anmeldecodes „STO-STI-17“ auf Storage-Conference.de nur 149 Euro (zzgl. MwSt.). Begleitende Informationen rund um die Konferenz finden Sie unter dem Hashtag #STORAGETC auf Twitter.

Dr. Axel Koester: Schon Flashspeicher lässt sich nicht verlustlos zwischen Standorten replizieren, geschweige denn SCM. Die Speichergeschwindigkeit ist so hoch, dass sich Daten ohne Zwischenspeicher und Rückantwort nicht einmal verlustfrei über 50 Meter Glasfaser Round-trip übertragen lassen!

Auch der zeitraubende Softwarestack hierfür wird erst mit CAPI und NVMe (flaches Speichermodell) kleiner.

Besser werden muss also die Unterscheidung zwischen "klassischer" und "ephemerer" [kurzlebig, flüchtig, Anm. der Red.] IT, bei der konsistente Datenhaltung keine Rolle spielt; Beispiele: Deep Learning und Big-Data-Analytik.

Zu guter Letzt müssen SCM-Anwärter den Flashspeicher auch gesamtpreislich schlagen. Das ist angesichts 3D-Flash, TLC und gut etablierter Chipfertigung die größte Hürde. Siehe http://ibm.biz/TLC-on-PCM

Bei IBM steuert man anscheinend mit Hochgeschwindigkeit auf den Objektspeicher als universelles externes Speichermedium zu. Sollen Gateways zu den verteilten Objektspeichern dann die Aufgabe von Software-defined Storage übernehmen?

Dr. Axel Koester: Objektspeicher können mit Erasure-Coding-basierter Standortredundanz (Dispersion) statt 1:1-Replikation zwischen Standorten die Kosten pro Petabyte stark reduzieren, allerdings nur als Aktiv-Archiv. Daraus wird auch durch ein Gateway kein Speicher für hochdynamische Daten.

Verwaiste Dateien kann der Dateicluster Spectrum Scale (GPFS) jedoch automatisch darauf "parken". Oder Spectrum Protect (TSM) nutzt es für Backup-to-Disk, so wie eine wachsende Menge Software mit nativer S3 & Swift API Unterstützung: natives Datenbank Backup, Sync & Share, Mediaserver, usw. Auch alle IBM Blockspeicher können heute Snapshots oder Offline-Volumes dort ablegen; das sind dann quasi die Gateways.

Welche Strategie würden Sie Anwendern für das Backup empfehlen, um die auseinanderstrebenden Datenquellen, bedingt auch durch unterschiedlichste mobile Geräte wie Smartphones, Tablets, Big-Data-Sensoren, Augmented Reality usw., wieder an einem zentralen Ort einzufangen?

Dr. Axel Koester: Die Bedürfnisse für Backup/Restore haben sich in puncto Verfügbarkeit, RTO, Versionierung, Bandbreiten usw. stark auseinandergelebt.

Daher kommen zwangsweise immer speziellere Backup-Softwaremodule zum Einsatz, nur das Speicherfundament bleibt idealerweise einheitlich: Wir empfehlen einen Objektspeicher oder Dateicluster für die ersten Backup-Generationen, dahinter Tapes als "letzte Bastion" gegen Verschlüsselungstrojaner und Software-GAUs.

Die größte Scale-out-Bandbreite ermöglicht IBM Cloud Object Store, die größte Einzelbandbreite steht mit IBM Spectrum Scale ESS (derzeit 9 GByte/s pro Client) zur Verfügung. Und Tapes haben mit Abstand die längste Betriebsdauer.

Artikelfiles und Artikellinks

(ID:44535230)