Mobile-Menu

Daten – das „Gold der Zukunft“ Speziallösungen für File und Objekt

Autor / Redakteur: lic.rer.publ. Ariane Rüdiger / Jürgen Ehneß

Die ehemals scharfen Abgrenzungen zwischen File- und Objektspezialisten bröseln mit der Zeit, weil kaum jemand nur eine Datensorte aufbewahren muss. Dennoch bleiben Unterschiede, die aus der Herkunft und Schwerpunktsetzung der jeweiligen Unternehmen herrühren.

Anbieter zum Thema

Unstrukturierte Daten fluten die Storage-Systeme – wie und wo speichert man dieses „Gold der Zukunft“?
Unstrukturierte Daten fluten die Storage-Systeme – wie und wo speichert man dieses „Gold der Zukunft“?
(Bild: ©Dmitry - stock.adobe.com)

Wenn die Datenmassen im Unternehmen wachsen, steht oft die bisherige Speicherinfrastruktur auf dem Prüfstand. Vor allem die Fluten von Dateien in unstrukturierten Formaten, nach weit verbreiteten Schätzungen bald die überwiegende Mehrheit aller neu entstehenden Informationen, machen den Anwendern zu schaffen. Sie sind das Futter für die Analytik – also das Roherz, aus dem das „Gold der Zukunft“ entstehen soll.

Doch wie bewahrt man dieses kostbare Material so auf, dass die Kosten der Speicherung und der Sicherung die daraus erhofften Gewinne nicht komplett wieder auffressen? Und wie sorgt man für Sicherheit und den erforderlichen Datenschutz?

Start-ups geben den Takt vor

Für die unstrukturierten Datenmassen kommen in erster Linie File- und sogenannte Object-Stores in Frage. Der wohl bekannteste, weil sehr traditionsreiche Anbieter im File-Sektor ist sicher auch heute noch Netapp; im Objektbereich ist der Cloud-Anbieter AWS mit seinem S3-Angebot derzeit zumindest hinsichtlich der Popularität die Nummer eins.

Daneben gibt es jede Menge Neulinge, die sich, erst seit einigen Jahren aktiv, darum bemühen, den speziellen Problemen dieser beiden Datenarten wirksam zu Leibe zu rücken. Prototypisch auch für andere seien hier Scality und Qumulo genannt.

Objekt-Storage in der Hybrid Cloud

Scality ist mit seiner Lösung Ring, mittlerweile in Version 8, am Markt. Der französische Hersteller kommt vom Objekt-Storage und hat ein geografisch verteilbares Erasure-Coding-System entwickelt. Scality bedient heute rund 300 Kunden vorwiegend aus den USA und Europa. Der Umsatz stammt zur Hälfte vom alten Kontinent. Die Kunden stammen aus Sektoren wie Gesundheitswesen, Verwaltung und anderen Bereichen.

Im Mittelpunkt der Anwendungsfelder stehen beispielsweise Langzeitsicherungen, die Medienarchivierung, die Aufbewahrung medizinischer Bilder nach dem PACS-Standard oder in herstellerneutraler Form. Das sind alles Anwendungen, bei denen es nicht auf Sekundenbruchteile ankommt und bei denen in der Regel größere Dateien entstehen.

So fügt man mit der Zenko-Funktionalität einen neuen Speicherort zum Gesamtsystem hinzu.
So fügt man mit der Zenko-Funktionalität einen neuen Speicherort zum Gesamtsystem hinzu.
(Bild: Scality)

Inzwischen hat Scality seine Fähigkeiten, Files zu handhaben, massiv ausgebaut. So läuft ein 20 Petabyte großes Filesystem, laut Field CTO Bradley King eines der größten der Welt, auf Scality Ring. Von den einschlägigen Marktauguren erhält Scality durchweg gute Noten; so taucht der Hersteller im führenden Quadranten der einschlägigen Gartner-Analysen aus dem Jahr 2019 für File/Object-based Storage und demjenigen für Object Storage auf.

Die aktuelle Version erweitert Ring vor allem um eine Hybrid-Cloud-Unterstützung und das Workflow-Management der Daten. So gibt es jetzt ein Azure-Blob-API.

Multi-Tenancy für Provider-Buckets

Verbessert wurde auch das Schlüsselmanagement, und die Software wurde um Multi-Tenancy-Funktionen für Provider ergänzt, beispielsweise eine S3-basierende Quotierung für Storage-as-a-Service. Das entsprechende API entspricht nicht dem Standardangebot von S3, unterstützt aber die volle Funktionalität von Amazon. Policies lassen sich mit den neuen Scality-Funktionen auch bucketweise vergeben.

Mit der Software des Aufkaufs Zenko aus dem Jahr 2018 wurde die XDM-Funktion realisiert. Sie erlaubt es, regelbasierte Replikations-Workflows über unterschiedliche Clouds hinweg aufzubauen und einen globalen Namensraum über sie auszudehnen, so dass Daten überall gefunden werden. Die Zenko-Lösung ist weiter auch unabhängig von Scality Ring erhältlich.

Für die Zukunft plant Scality Out-of-Band-Updates von S3-Buckets, Eventbenachrichtigungen für Buckets einschließlich Alarmen für den Admin und Netzwerkmonitoring für private Netze. Auch die Azure-Blob-Funktionen sollen erweitert werden. Für das Edge-Computing mit seinen Echtzeitanforderungen und Massen an Mini-Files hat man dagegen noch keine passende Lösung.

Gigantische Mengen von Mini-Files verarbeiten

Qumulo sieht dagegen seinen Schwerpunkt bei der zuverlässigen Verarbeitung gigantischer Mengen auch kleinster Files, wie sie beispielsweise beim Edge-Computing in intelligenten Verkehrssystemen, Fabriken oder Haushalten in Zukunft anfallen werden. Ist ein File kleiner als 128 Kilobyte, erzeugt es aufgrund der Speicherregeln der Storage-Systeme nolens volens beim Striping einen Overhead, und genau diesem Zustand will Qumulo ein Ende machen. Dafür werden Daten in 70 Gigabyte große Container gepackt und über das gesamte System gestriped, was den Speicherbedarf massiv verringert.

Qumulo skaliert besser als andere Lösungen, und Dateien werden schneller gefunden. Ingmar Löke, frischgebackener Sales-Direktor für die deutschsprachige Region: „Wir haben den Treewalk bei der Dateisuche obsolet gemacht.“

Eine Datenbank für Metadaten

Der Grund: Der Hersteller trennt (darin durchaus den Objektdatenspezialisten ähnlich) Metadaten von File-Daten in einer separaten Datenbank. Gleichzeitig werden keine Fehler toleriert, und Korrektheit ist oberste Priorität. Dies soll gelten, egal, wie groß Files sind, wie viele gespeichert werden müssen und was ihr Inhalt ist.

Ein Zuviel an Speicher aus Sicherheitsgründen sei, so Löke, mit Qumulo nicht mehr erforderlich. Daten werden auf File-Level geschützt. Restores gehen erheblich schneller als üblich. Den Restore einer 12-Terabyte-Platte bekommt Qumulo laut Löke in nur sechs Stunden hin.

Hardware-Neutralität als Prinzip

Qumulo versteht sich als Hardware-neutraler Hersteller, liefert allerdings auch Kombipakete. Die Software kommt vollständig, auch wenn Kunden sich entscheiden, eines aus der Reihe der zertifizierten Alternativsysteme zu verwenden, solange es sich nur um NVMe-Lösungen handelt. Die Qumulo-eigene Lösung basiert aktuell auf Quanta-Hardware; weiter wurden HPE Apollo und Dell EMC zertifiziert. Bei einem Hardware-Wechsel auf ein anderes zertifiziertes System gilt die Lizenz weiter. Eine Grundkonfiguration braucht mindestens vier Knoten.

Da die Lösung nach dem API-first-Prinzip gebaut ist, soll es leicht sein, Integrationen womit auch immer durchzuführen, beispielsweise in DevOps-Umgebungen. Der Admin profitiert von einer analytischen Engine; diese erlaubt in Echtzeit jederzeit eine Sicht auf die Daten im Gesamtsystem, egal, wo sich die jeweiligen Daten genau befinden. Es lässt sich genau feststellen, welche Apps oder IP-Adressen welche Speichermengen belegen oder wie häufig auf Daten zugreifen. Der Support arbeitet mit Slack, nutzt Cloud-basiertes Monitoring und erzeugt, wenn nötig, aktive Warnungen oder Reports.

In Deutschland vor allem On-Premises-Replikation

Der Hersteller ist seit 2015 mit seinem File-Storage für Hybrid-IT am Markt, seit 2019 auch in Deutschland. „Hierzulande nutzt man die Cloud zurückhaltender, vor allem für Bursts“, sagt Löke. Deshalb liege hier der Schwerpunkt auf der Verwendung des Qumulo-Clusters als Ressource für die Replikation On-Premises. Wie Scality ist man mit HPE verpartnert, gerate sich aber laut eigenem Bekunden nur selten wirklich in die Quere, weil die Anwendungen sich unterschieden.

Qumulo löst nach eigenen Angaben oft Altsysteme ab, die zu langsam skalieren, mit Unmengen von Files schlecht zurechtkommen oder zu langsam sind. Abgerechnet wird nach Brutto-Terabyte.

Fazit

File oder Objekt? Völlig egal? Das stimmt wahrscheinlich so pauschal nicht. Vielmehr sollte man sorgfältig auf die Details der in Frage kommenden Systeme schauen und sie mit den Merkmalen der eigenen Anwendungen abgleichen. Dann wird sich die Waage manchmal eher in Richtung eines Systems mit stärkerem Objektbezug, manchmal zu einem ausgeprägten File-Spezialisten neigen.

(ID:46306398)