Gesponsert

Herausgewachsen Speicher brauchen einen neuen Zuschnitt

Selbst wenn die vor vielen Jahren gekaufte Hose gerade noch so sitzt, kann das Design überholt, der Schnitt antiquiert oder der Stoff abgenutzt sein. Mit einigen Speicherlösungen verhält es sich nicht anders. Meist vor gut zwei Dekaden entwickelt, wollen auch sie heute an der einen oder anderen Stelle nicht mehr so richtig passen. Probleme sind dadurch vorprogrammiert und der Ärger groß. Doch was genau sorgt bei Administratoren für den größten Frust, womit kämpfen sie am häufigsten?

Gesponsert von

Selbst wenn die Schuhe größenmäßig noch passen, wäre ein neues Paar in mancherlei Hinsicht besser. Bei einigen Speicherlösungen ist es ähnlich.
Selbst wenn die Schuhe größenmäßig noch passen, wäre ein neues Paar in mancherlei Hinsicht besser. Bei einigen Speicherlösungen ist es ähnlich.
(Bild: pro2audio - stock.adobe.com)

Unternehmen müssen heute Unmengen an unstrukturierten Daten bewältigen. Nicht nur deren schiere Masse stellt mittlerweile eine Herausforderung dar, sondern auch, dass ihre Größe aufgrund immer hochauflösenderer Geräte und Sensoren beständig zunimmt.

Neue Datendimensionen

Als wäre das noch nicht genug, tendieren Unternehmen bei der Datenspeicherung verstärkt zu der Denkweise „Viel hilft viel“. Einerseits, um im Rahmen von Analysen geschäftsentscheidende Erkenntnisse aus den Daten ziehen zu können, andererseits, da auf maschinelles Lernen oder künstliche Intelligenz gestützte Anwendungen just mit diesen gefüttert werden müssen.

► Free Download: Das Versprechen von Enterprise Hybrid Cloud File Storage

Zu den bereits genannten Punkten gesellen sich weitere Aspekte. So sind Unternehmen infolge der Globalisierung stärker denn je gefordert, sich international aufzustellen. Dies führt dazu, dass sich auf Daten standortübergreifend zugreifen lassen muss. Ganz gleich, ob sie in eigenen Rechenzentren, öffentlichen Cloud-Infrastrukturen oder hybrid aufgebauten Umgebungen gespeichert sind.

Kann Ihr Dateispeicher noch mithalten?

Wenngleich das ein oder andere schon in die Jahre gekommene Scale-up- oder Scale-out-System auch in Anbetracht dieser Entwicklungen weiterhin als durchaus passable Lösung gelten mag, darf wie eingangs angeführt, eines nicht vergessen werden: Trafen ihre Architekturen damals den Nerv der Zeit, so sind sie heute in vielerlei Hinsicht überholungsbedürftig. Ganz einfach weil die Uhr nicht stehen geblieben ist und sich rund um Daten, Anwendungen, Workloads sowie Infrastrukturen einiges getan hat.

Doch welche inhärenten Schwächen sind es im Speziellen, die sie im Gepäck haben? Was sind die größten Mankos, die ihrem Einsatz in modernen Szenarien entgegenstehen und nach neuen Ansätzen verlangen? Und wie sehen letztere eigentlich aus? Ein Blick auf das derzeitige Angebot gibt Antworten.

Warum für Kapazität zahlen, die sich nicht nutzen lässt?

Das Storage-System bietet ein Petabyte an Nutzkapazität. Das hört sich zunächst einmal gut an. Leider lässt diese Angabe jedoch keinerlei Rückschluss darauf zu, wie viel davon in der Praxis tatsächlich für die Speicherung von Dateien zur Verfügung steht. Denn bei Lösungen der alten Schule müssen davon mindestens 20 Prozent oder weit mehr in Abzug gebracht werden. Unter anderem, um die Performance bei hoher Auslastung sicherzustellen, Wiederherstellungsprozesse durchführen zu können oder den Schutz der Daten zu gewährleisten. Letzteres beansprucht in einigen Fällen noch mehr Raum, sobald Files in Größenordnungen unter 128 KB geschrieben werden.

Damit der Speicher läuft, empfehlen Hersteller zwischen 20 und 40 Prozent der Nutzkapazität in Reserve zu halten.
Damit der Speicher läuft, empfehlen Hersteller zwischen 20 und 40 Prozent der Nutzkapazität in Reserve zu halten.
(Bild: Qumulo)

Schluss mit Überprovisionierung

Bei Lösungen von Qumulo lässt sich die Nutzkapazität hingegen tatsächlich in vollem Umfang ausschöpfen, da Daten mittels Erasure Coding auf Block- und nicht auf Dateiebene geschützt werden. Bei diesem Ansatz spielt weder die Menge an gespeicherten Dateien noch deren Größe eine Rolle, infolgedessen lassen sich Workloads mit gemischten Datenstrukturen beherrschen. Weitere positive Effekte sind, dass selbst eine hundertprozentige Belegung der Nutzkapazität die Leistung nicht in die Knie zwingt und die Wiederherstellungszeit nach einem Plattenausfall nur einige Stunden statt Tagen oder Wochen beträgt.

Kostensparer: Steht die Nutzkapazität fast vollständig für die Speicherung von Dateien zur Verfügung, braucht es weniger Storage-Systeme.
Kostensparer: Steht die Nutzkapazität fast vollständig für die Speicherung von Dateien zur Verfügung, braucht es weniger Storage-Systeme.
(Bild: Qumulo)

Bis in die Unendlichkeit und noch viel weiter ...

Unternehmen sind auf Storage-Systeme angewiesen, die mit einer beliebigen Zahl an kleinen und großen Dateien wachsen können. Luft nach oben ist entscheidend, es gilt „No Limits“. Aus diesem Grund liegen Lösungen vorne, deren Kapazität sich per Scale-out jederzeit bedarfsgerecht und in großem Maßstab aufstocken lässt. Desgleichen muss allerdings auch das für ihre Verwaltung eingesetzte Dateisystem so ausgelegt sein, dass es mit Abermillionen an Files zurechtkommt, die in unendlich vielen Verzeichnissen organisiert sind. In der Vergangenheit unter anderen Prämissen konzipierte File-Systeme scheitern an dieser Aufgabe, ihr Design gibt dies schlichtweg nicht her.

► Testen Sie Qumulo noch heute!

Um mit der Skalierfähigkeit verbundene Unzulänglichkeiten klassischer Systeme aufzuheben, baut die Lösung von Qumulo zunächst einmal auf einer verteilten Architektur auf. Unter der Haube eines einzigen Dateisystems, dass sich die Prinzipien großangelegter massiv skalierbarer, verteilter Datenbanken zu Nutze macht, lassen sich Rechenknoten, Cloud-Instanzen oder -Ressourcen zu Clustern zusammenschließen, die wiederum global miteinander vernetzt sein können. Die konstant im Hintergrund laufende Replikation sorgt dafür, dass auf ihnen gespeicherten Daten fortwährend auf dem aktuellsten Stand und synchron gehalten werden.

Das Treewalk-Problem: Baumartige Verzeichnis-Strukturen bremsen Vorgänge aus

Hinzu kommt, dass hierarchische Dateisysteme Dateien üblicherweise in baumartig angelegten Verzeichnisstrukturen speichern. Hier rührt der Begriff „Treewalk“ her, da diese bei bestimmten Vorgängen – Abfragen, Verwaltungsaufgaben, Feststellen von Änderungen – vollauf „durchlaufen“ werden müssen. Dies nimmt bei Millionen oder Milliarden abgelegter Dateien immense Zeit in Anspruch und ist daher nicht mehr zeitgemäß.

Qumulo umgeht bei seinem Dateisystem das klassischen Lösungen in der Regel zugrunde liegende Treewalk-Verfahren und setzt stattdessen für das File-Management oder Abfragen auf parallele und verteilte Algorithmen.

Ist mehr Kapazität oder Leistung gefragt, lässt sich jeder Cluster bedarfsgerecht um weitere Knoten oder Instanzen ausbauen. Hierfür müssen keine zusätzlichen Volumes angelegt werden, noch entstehen Speichersilos.
Ist mehr Kapazität oder Leistung gefragt, lässt sich jeder Cluster bedarfsgerecht um weitere Knoten oder Instanzen ausbauen. Hierfür müssen keine zusätzlichen Volumes angelegt werden, noch entstehen Speichersilos.
(Bild: Qumulo)

Echtzeitinformationen anstelle Kristallkugel

Analytische Daten lassen sich von herkömmlichen Speichersystemen schwer ziehen. Insofern können den Datenbestand oder das Dateisystem angehende Fragen für gewöhnlich weder direkt noch zufriedenstellend beantwortet werden. Wo welche Daten gespeichert sind, wer und wie derjenige sie nutzt, wie es um Kapazität oder Leistung des File-Systems bestellt ist oder wie die Durchsatzwerte im Detail aussehen, bleibt somit ein Rätsel. Ebenso an welcher Stelle es zu Problemen oder Engpässen kommen könnte und wie sich der Speicherbedarf entwickelt.

Hier zahlt sich erneut der Verzicht auf unter Umständen zeitaufwändige und leistungsbeeinträchtigende Treewalks sowie Metadaten-Scans oder Dateisystem-Suchen aus. Alternativ werden während der Erstellung oder Änderung von Dateien oder Verzeichnissen zugehörige Metadaten wie verwendete Bytes und die Anzahl der Dateien zusammengefasst. Die Aufgabe Echtzeitanalysen durchzuführen fällt der komplett in das Dateisystem integrierten Datenbank „Qumulo DB“ zu, die sich hierfür die als B-Bäume bekannten Indexstrukturen des File-Systems zu Nutze macht. Ergebnis sind zeitnah verfügbare und per Sampling-Mechanismen validierte Informationen.

Beispiel für das Ergebnis einer Echtzeitanalyse.
Beispiel für das Ergebnis einer Echtzeitanalyse.
(Bild: Qumulo)

Alles kann, nichts muss

Der neue Fernseher mag das Siegel „HDTV-Ready“ tragen. Ob er das Versprechen der hochauflösenden naturgetreuen Bildwiedergabe später einlöst, steht auf einem anderen Blatt. Gleichermaßen, ob der Käufer tatsächlich auf das neue Format wechseln oder sich nur die Option offenhalten möchte.

Vergleichbar damit verlangt die Ausführung dateibasierter Workloads in Cloud-Infrastrukturen nach Lösungen, die nicht nur „einsatzfähig“, sondern „nativ“ sind – also von Anbeginn und Grund auf für diese Umgebungen entwickelt wurden. Die „Scale-across-Plattform“ von Qumulo erfüllt diese Vorgabe. Ob Cloud-Infrastruktur oder On-Premises: Die Funktionen sind haargenau die gleichen, so dass sich Daten uneingeschränkt und übergreifend auf einfache Art und Weise verwalten lassen. Damit eignet sich die Lösung hervorragend für Unternehmen, die darüber nachdenken, hybrid zu gehen. Sprich, die dateibasierte Anwendungen und Workloads ohne mühseliges Umschreiben oder Modifizieren in die Cloud verlagern möchten, sobald ihnen dies geschäftlich gesehen sinnvoll erscheint.

Sag zum Abschied leise Servus

Immer leistungsstärkere Komponenten plus eine immer bessere Ausstattung für immer weniger Geld: die Preise für Commodity-Hardware befinden sich seit geraumer Zeit im Sturzflug. Dies leistet softwaredefinierten Lösungen, wie sie auch Qumulo anbietet, Vorschub. Diese lassen sich auf unterschiedlicher hierfür qualifizierter Hardware oder in Public Clouds, darunter AWS und GCP, einsetzen.

► Lernen Sie Qumulo auf der HPE Discover in München kennen. Erleben Sie eine Demonstration des modernsten Hybrid Cloud File Storages.

Wahlfreiheit, günstigere Kosten, kurze Software-Release-Zyklen im Abstand von zwei Wochen, ein verbrauchsorientiertes Abrechnungsmodell und vieles weitere mehr sind die Vorteile, von denen Unternehmen gegenüber dem klassischen proprietären Modell profitieren. Vom sogenannten „Vendor Lock-in“ Abschied zu nehmen senkt zudem das Risiko, dauerhaft an deutlich teurere und meist nur im Drei-Jahres-Zyklus aktualisierte oder irgendwann gar nicht mehr unterstützte proprietäre Hardware gebunden zu sein.

Für wen rechnet sich denn nun ein Wechsel?

Der Umstieg auf eine Speicherlösung, die mit einem universell einsetzbaren, hochskalierbaren und an aktuellsten Anforderungen ausgerichteten Dateisystem arbeitet, bietet sich unter anderem an, wenn:

  • Milliarden Dateien unterschiedlicher Größe über viele Systeme hinweg verteilt gespeichert werden müssen,
  • sich Workloads aus einem Mix großer und kleiner Files zusammensetzen und diesen die jeweils erforderliche Performance bereitgestellt werden soll,
  • die Verarbeitung enormer Mengen an kleinen Dateien die Systemleistung nicht beeinträchtigen darf,
  • viele parallele Schreibvorgänge an der Tagesordnung sind,
  • eine hybride, lokale Rechenzentren und öffentliche Clouds umspannende Lösung gefragt ist,
  • Echtzeitinformationen für Unternehmen oder Einrichtungen überlebenswichtig sind, um ihre Daten, deren Nutzung und ihren Speicherbedarf zu verstehen sowie Leistungsengpässen begegnen zu können.

Prominente Anwendungsfälle finden sich in der Medien- und Unterhaltungsindustrie, in Einrichtungen, die sich mit Biowissenschaften oder der medizinischen Forschung befassen und in der Automobilindustrie, um nur einige zu nennen. Schon jetzt ließe sich die Liste fortsetzen, denn ob Videoüberwachung, Telekommunikation, Wettersimulation oder Rohstoffexploration: die Menge an zu verarbeitenden Daten wird steigen. Und damit auch die Nachfrage nach innovativen Lösungen, mit denen sich diese unkompliziert bewältigen lassen.

Ergänzendes zum Thema
Concat: Warum Qumulo?

Die 1990 gegründete Concat AG gilt als Spezialist in Sachen Scale-out-NAS. Schon früh und immer wieder bewies das Systemhaus in Sachen Herstellerauswahl den richtigen Riecher; entschied sich deutlich früher als mancher Mitspieler für die Zusammenarbeit mit kleinen, feinen innovativen Neugründungen und das mit Erfolg. Mit und für diese den Markt zu erschließen fordert jedoch Durchhaltevermögen und ist nicht ganz risikoarm. Denn erst einmal muss die Klientel überzeugt werden. Genau daran arbeitet Concat nun mit Qumulo. Doch welche Argumente sprachen dafür, sich für die strategische Partnerschaft zu entscheiden?

  • 1. Technisch immer eine Nasenlänge voraus zu sein, ist seit Anbeginn Concats Ziel. Um dies zu erreichen, sondiert das IT-Systemhaus kontinuierlich den Markt. Einerseits wird dabei ein Blick darauf geworfen, wo der Schuh bei Unternehmen gerade am ärgsten drückt, andererseits nach Herstellern Ausschau gehalten, deren Lösungen den Schmerz nicht nur lindern. Sondern Alternativen bieten, die sich von dem was bereits da ist, deutlich unterscheiden. Qumulo fällt zweifelsohne in diese Kategorie.
  • 2. Concat beschäftigt sich schon viele Jahre intensiv mit Scale-out-Speicherlösungen. Daher kennt das Team die Stärken und Schwächen der am Markt erhältlichen Produkte ganz genau. Das stellt für das Unternehmen auch eine Grundvoraussetzung dar, denn nur auf dieser Basis können Kunden kompetent beraten und ein Angebotspaket geschnürt werden, dass passgenau auf ihren individuellen Anwendungsfall zugeschnitten ist. Hier ist Vielfalt wichtig, denn nicht jedes System passt zu jeder Situation. Mit Qumulo können Szenarien adressiert werden, die sich mit anderen, älteren Lösungen nicht länger abdecken lassen. Somit eröffnet die Erweiterung des Angebots um die Qumulo-Lösung zusätzliches Umsatzpotenzial. Nicht zuletzt, da sich mit ihrem Einsatz auf die in vielen Unternehmen veränderte Datensituation reagieren lässt.
  • 3. Der wohl wichtigste Punkt, der Concat dazu bewogen hat, den Markteintritt von Qumulo als strategischer Partner zu begleiten, ist sicherlich, dass das IT-Systemhaus bislang keine vergleichbaren Lösungen sieht. Die Bandbreite an Alleinstellungsmerkmalen ist aus Sicht des Dienstleisters groß und es steht nicht zu erwarten, dass im gleichen Segment aktive Startups oder etablierte Hersteller in Kürze nachziehen. Insofern stehen die Chancen gut, Qumulo erfolgreich als ersten Anbieter einer Scale-across-Lösung zu positionieren und die daraus resultierenden Wettbewerbsvorteile auszuschöpfen, bevor die „Me-too“-Phase einsetzt.

Advertorial - Was ist das?

Über Advertorials bieten wir Unternehmen die Möglichkeit relevante Informationen für unsere Nutzer zu publizieren. Gemeinsam mit dem Unternehmen erarbeiten wir die Inhalte des Advertorials und legen dabei großen Wert auf die thematische Relevanz für unsere Zielgruppe. Die Inhalte des Advertorials spiegeln dabei aber nicht unbedingt die Meinung der Redaktion wider.

(ID:46166487)