„Technology Live“ Gipfeltreffen von Storage-Anbietern

Autor / Redakteur: Michael Matzer / Jürgen Ehneß

Die drei Storage-Anbieter Western Digital, Scality und Qumulo stellten kürzlich auf einer gemeinsamen Presseveranstaltung den neuesten Stand ihrer Produkte und Plattformen vor. Gemeinsam war allen die Integration der Cloud als Ressource und die Unterstützung sehr großer Datenmengen im Petabyte-, Exabyte- und Zettabyte-Bereich.

Anbieter zum Thema

Große Datenmengen und die Cloud waren zwei zentrale Themen bei der Veranstaltung „Technology Live“.
Große Datenmengen und die Cloud waren zwei zentrale Themen bei der Veranstaltung „Technology Live“.
(Bild: ©metamorworks - stock.adobe.com)

Auf ihren Technology-Live-Veranstaltungen stellt die Agentur A3 Communications Pressevertretern ausgewählte Anbieter von Storage-Produkten und -Plattformen vor. Diese Hersteller nutzen die Gelegenheit, ihre neuesten Entwicklungen vorzustellen und einen Ausblick in die nächste Zukunft zu gewähren. Kurz vor Weihnachten trafen in München Western Digital, Qumulo und Scality zusammen.

Bildergalerie
Bildergalerie mit 11 Bildern

Western Digital

Nach dem im September 2019 abgeschlossenen Kauf von Kazan Networks verfügt WDC über eine Technologie für NVMe over Fabrics (NVMe oF). Sie wurde bislang in Kazans „Fuji“-ASICs und „Onyx“-Adaptern für Bridges geliefert. Phil Bullinger, Sr. VP und GM Data Center Systems, und Brian Cowger, Sr. Technologist, zeigten, wie diese beiden Produkten die 2018 vorgestellte WDC-Technologie „OpenFlex“ erweitern soll. OpenFlex unterstützt eine zusammensetzbare, desaggregierte Infrastruktur („composable disintegrated infrastructure“, CDI).

„Unsere neuen, CDI-fähigen NVMe-oF-Plattformen sind für die Hyperscale-Workloads der nächsten Generation ausgelegt“, sagte Bullinger. Mit dem Begriff „Hyperscale“ sind Petabyte und Zettabyte gemeint. Die OpenFlex-Plattform samt ihrem Produktportfolio sei die in puncto Geschwindigkeit leistungsfähigste, offene Plattform für zusammensetzbaren NVMe-oF-Speicher.

Bullinger stellte zudem das Mitte 2019 präsentierte Konzept von Zoned Storage und Zoned Storage Devices (ZSD) vor. Diese Begriffe werden im WDC-Blog „What is Zoned Storage and the Zoned Storage Initiative“ genau erklärt, denn die Technologie hält für den Experten einige Überraschungen bereit, so etwa den Begriff der „Zoned Namespaces“ (ZNS) und die Voraussetzung, dass eine Block-Storage-Zone immer sequentiell beschrieben werden muss.

Der Vorteil ist nach den Worten von Blog-Autor Jorge Campello De Souza eine höhere Effizienz der Block-Storage-Dateninfrastruktur hinsichtlich ihrer Skalierbarkeit. Der neue Shingled-Magnetic-Recording-Standard (SMR) hat Festplatten eine höhere Kapazität erlaubt. Hosted Managed SMR sei inzwischen ein INCITS-Standard. Bei SSDs ändere sich hingegen intern nichts.

Dennoch bedeutet der Umstieg auf Zoned Storage, einen neuen Software-Stapel aufzubauen, was einige Investitionen erforderlich macht. Um einen Teil dieser Investitionen schon am Anfang, im Betriebssystem, zu installieren, soll Zoned Storage Eingang seit 2014 in den Linux-Kernel finden. Einige Funktionen sind seit 2017 (v4.1) realisiert worden.

Scality

Scality mit Hauptsitz in San Francisco findet man in großen Unternehmen (Global 2000), aber auch bei Telekommunikationskonzernen, bei den Medien, im Gesundheitsbereich, im Öffentlichen Sektor und in der Fertigung. Der RING-Speicher wird unter anderem von der Bloomberg Media Group genutzt, der größten globalen Mediengruppe mit einer Leserschaft von über 62 Millionen.

Die Storage-Lösung Scality RING unterstützt Datei- und Objektanwendungen ohne Kapazitätsbeschränkung und mit garantierter Zuverlässigkeit. Die reine Software-Lösung RING wird auf Standard-x86-basierter Hardware installiert und verspricht eine Reduktion der laufenden Betriebskosten (TCO) von bis zu 90 Prozent gegenüber herkömmlichen Storage-Technologien. Mit dem Produkt Zenko hat Scality zudem einen Multi-Cloud-Data-Controller entwickelt, der Unternehmen, CSPs und MSPs ansprechen soll. Zenko unterstützt nach Angaben von Bradley King, Field CTO bei Scality, neben Public Clouds von AWS, Azure, Google und anderen auch On-Premises-Lösungen von NetApp und Isilon sowie das quelloffene Ceph.

Die neue Version RING 8 unterstützt durch die Zenko-Integration seit September 2019 die Verwaltung von Daten in Multi Clouds. „Die Version 8 bietet dabei Anwendungen Zugriffsmöglichkeiten über AWS S3 und neu über Azure Blob Storage Server“ und „ist mit dem jeweiligen Herstellerprotokoll kompatibel“, so Bradley King.

Scality sei auf sechs Anwendungsfälle fokussiert, die 90 Prozent seiner Kunden abdeckten: Langzeit-Backup/-Archive, Big Data, Disaster Recovery für die Big-Data-Hybrid-Cloud (zum Beispiel in der Genforschung), Content-Repositories, Media-Workflows, Medical-Imaging mit herstellerneutralem Archiv und PACS-Archiv sowie Object Storage für Service Provider.

Zu den Scality-Kunden gehört beispielsweise der CSP Rackspace, der damit Cloud-nativen Object-Speicher anbieten kann. Aber auch ein Kunde in der EU, der Scality zusammen mit Splunk betreibt und täglich 1 Petabyte an Daten erzeugt, gehört zu den Kundenprojekten. Dieses Projekt diene der Verwaltung von Reisen und Buchungen.

„Die aktuelle Version 8.1 enthält neu S3-Quotas und AWS IAM Bucket Policies“, so King. Neben den genannten Protokollen S3 und Azure Blob sowie den File-Protokollen SMB, NFS und FUSE wird auch die OpenStack Swift API unterstützt.

Kunden können somit nicht nur im Front-End das Protokoll für Ihre Anwendungen frei wählen, sondern sind auch durch die Integration von Zenko frei in der Wahl des jeweiligen Storage-Backends.

Hybrid Cloud File Storage mit Qumulo

Qumulo ist von der Gartner Group zu einem „Leader“ im Markt für Hybrid Cloud File Storage 2019 ernannt worden. Ingmar Löke, Director Sales DACH-Region, unterstreicht, dass Qumulo nichts mit Object Storage zu tun habe, sondern im Bereich Cloud File Systems tätig sei.

„Qumulo hat die Metadaten von den Files getrennt, so dass sich ein großer Geschwindigkeitsvorteil ergibt: Es ist kein ,tree walk‘ nötig, also kein Durchsuchen von Verzeichnissen. Bislang bestand ein riesiger ,overhead‘, vor allem bei kleinen Files aus IoT und Machine Learning.“ Damit ist auch schon ein zentraler Einsatzbereich angedeutet: selbstfahrende Fahrzeuge und Überwachungssysteme beziehungsweise Bildgebung. Hier fallen offenbar sehr viele kleine Dateien in kürzester Zeit an.

„Der große Vorteil, den wir unseren Kunden bieten: Der Rebuild eines Backups mit dem Umfang von mehreren Terabyte kann binnen Stunden statt in Tagen erfolgen.“ Außerdem sei die Skalierung des Storage-Systems besser, wenn es etwa in einer Cloud-Infrastruktur auf entsprechender Hardware ausgeführt werde. „Qumulo ist unabhängig von der Hardware-Plattform, bietet aber nativen Support für HPE Apollo, Dell et cetera“, sagte Löke. „Unsere eigene Hardware wird unter anderem von Quanta gebaut.“ Auf zertifizierten Plattformen biete Qumulo Einfachheit: SSD an erster Stelle, HDD an zweiter und Memory an dritter. Die QC-Serie zeichne sich durch „Flash-first-Design mit intelligenter Cache-Verwaltung aus, während die P-Serie auf NVMe mit Multi-Protokoll-Unterstützung fokussiert“.

Splunk kann für die Analyse von Protokollen und Echtzeitereignissen integriert werden, was besonders bei KI-gesteuerten Objekten wichtig ist: „Qumulo hat diese Funktion bereits integriert“, so Löke. Ein weiterer Anwendungsfall sei ein Datensee. Für ein Audit-Log in solchen Umgebungen stehe eine API bereit. Im Public Sector, in dem der Datenschutz Priorität habe, könne Qumulo Daten anonymisieren. Nach Lökes Angaben steigen die Preise ab vier Knoten und richten sich dann nach dem Volumen von Brutto-Terabyte.

Bildergalerie
Bildergalerie mit 11 Bildern

(ID:46317744)