Mobile-Menu

Pure Storage, Nebulon, Hammerspace und Osnexus Innovative Storage-Anwendungen für steigende Datenmengen

Von Michael Matzer

Auf der jüngsten „A3 Technology Live!“-Konferenz stellten die Anbieter Osnexus, Nebulon und Hammerspace sich selbst und diverse Neuheiten im Storage-Bereich vor. Der Branchenriese Pure Storage, der ebenfalls mit an Bord war, hat zwar einiges in der Pipeline, begnügte sich jedoch mit der vertieften Präsentation seines Flaggschiffs FlashBlade.

Anbieter zum Thema

Die Storage-Welt bleibt in Bewegung, und oft sorgen vor allem kleinere Unternehmen für Innovationen – wie jüngst auf der „A3 Technology Live!“.
Die Storage-Welt bleibt in Bewegung, und oft sorgen vor allem kleinere Unternehmen für Innovationen – wie jüngst auf der „A3 Technology Live!“.
(Bild: gemeinfrei / Pixabay )

Osnexus

Osnexus ermöglicht mit Software-Defined Storage die Konfiguration eines Storage Grids, das File-, Block- und Object-Storage (SMB/NFS/iSCSI, Fibre Channel) erlaubt. CEO und CTO Steven Umbehocker stellte auf der Online-Konferenz sein Hauptprodukt Quantastor v5 persönlich vor. Die Software verwaltet die verschiedenen Hardware-Optionen, die möglich sind.

Bildergalerie
Bildergalerie mit 10 Bildern

„Wir haben 2018 unsere erste 25-PB-Installation realisiert.“ In die einheitliche Plattform des Storage-Grid sind demnach die File-Systeme OpenZFS und Ceph aus dem OpenStack-Standard integriert, ebenso CDI (Composable Disaggregated Infrastructure). Die CDI realisiert VLANs aus den unterschiedlichen Speichertypen an verschiedenen Standorten für diverse User.

Für solche Storage-Cluster lassen sich laut Umbehocker sowohl Scale-Out-Szenarien als auch Scale-Up-Szenarien realisieren. Mit SAN/NAS ist ein Scale-Out-Cluster von über 100 Petabyte pro Storage Grid realisierbar, mit Scale-Up-Cluster ein Grid von über 10 PB. Letzterer kann aus sechsmal 600 JBoDs à 600 Festplatten bestehen. Der Scale-Out-Cluster kann eine nahezu lineare Leistungssteigerung vorweisen.

Sehr wichtig ist bei solch großen Installationen die Datensicherheit. Dass die Installationen mandantenfähig sind, ist Voraussetzung für größere Kunden. Diese „Advanced Multitenancy“ stellte Umbehocker für dieses Jahr in Aussicht. Neben der Konformität zu Branchenstandards wie HIPAA und demnächst FIPS bietet die Software umfassende Verschlüsselung als Schutz vor Ransomware, Multifaktor-Authentisierung (MFA) sowie LDAP- und Active-Directory-Integration.

Eine derart mächtige Storage-Umgebung muss sich auch anpassen und erweitern lassen. Dies erfolgt laut Umbehocker mithilfe der Quantastor Solution Designer für Scale-Out und Scale-Up. Ein Konfigurationsbeispiel ist hier zu finden. Teams können mithilfe einer Kollaborationsfunktion zusammen am Design arbeiten.

Nebulon

Nebulon, das 2020 als Newcomer auftrat, bietet Cloud-Defined Storage, genauer gesagt: Dedicated (Local) Cloud Infrastructure (DCI). Darunter versteht CEO und Mitgründer Siamak Nazari ein serverbasiertes Enterprise-Speichersystem für das lokale Rechenzentrum, das keinerlei Rechen- oder Speicherressourcen auf dem Server verbraucht, sondern über die Nebulon-Cloud konfiguriert und verwaltet wird. Die Nebulon Cloud baut auf den Kapazitäten der Hyperscaler auf. Aus diesem Ansatz ist eine kostenorientierte Speicherplattform für Mission-Critical-Anwendungen entstanden. Sie will leicht zugängliche „AIOps“-Funktionalität, automatisierte Updates und vielseitige Programmierbarkeit in jeder Größenordnung bieten.

Nach Herstellerangaben kombiniert Cloud-Defined Storage eine sichere und Cloud-basierte Steuerungsebene mit PCI-Express-Karten (PCIe 3.0/4.0), einen sogenannten nPod. Ein nPod, der auch in einen GPU-Slot passt, skaliert auf bis zu 32 Server mit einem Maximum von 255 logischen Laufwerken (LUNs) pro SPU (Services Processing Unit) und einem Gesamtumfang von bis zu logischen 10.000 Laufwerken pro nPod. Die SPU, die das Betriebssystem enthält, ist eine PCIe-basierte Storage-Engine, die im Anwendungsserver des Kunden auf einer PCIe-Steckkarte installiert ist und dort an die internen SSDs des Servers angeschlossen wird.

Diese PCIe-Karten werden in den Servern der Kunden verbaut und stellen den unternehmenskritischen Anwendungen der Kunden alle notwendigen Enterprise-Storage-Funktionalitäten zur Verfügung. Zu den technischen Partnern, die solche Komponenten liefern können, gehören laut Nazari Lenovo, Dell, HPE und Supermicro.

Cloud-Defined Storage nutzt die Nebulon-SPU, um alle wesentlichen Enterprise-Datendienste bereitzustellen, so etwa Komprimierung, Verschlüsselung, Deduplizierung, Erasure Coding, Snapshots und Datenspiegelung. Diese Prozesse werden von KI-Algorithmen optimiert gesteuert. Mithilfe des Prinzips eines Machine Images lassen ähnlich wie bei Amazon entsprechende Konfigurationen kopieren, was laut Siamak die Konsistenz und Einheitlichkeit der Deployments sicherstellt.

Die Cloud-basierte Steuerungskonsole „Nebulon ON“ soll detaillierte Erkenntnisse über Infrastruktur und Anwendungen liefern. Jede Nebulon-SPU überträgt stündlich Zehntausende Datenpunkte über Datenspeicher, Server und Anwendungen an Nebulon ON, um sie mit Hilfe von Machine-Learning-Algorithmen zu analysieren, die die intelligente Steuerung vornehmen. Sie sorgt für die globale Automation und sofortige Updates.

Bildergalerie
Bildergalerie mit 10 Bildern

Diese „Zero-Touch“-Administration und -Überwachung in der Cloud soll es IT-Managern erlauben, ihre Arbeit damit auch bequem aus dem Homeoffice zu erledigen. Das Prinzip „Zero Drift“ bezeichnet laut Nazari, dass Deployments für jede Art von Anwendung stets konsistent und vorhersagbar verlaufen und ihre Verfügbarkeit garantiert wird. „Zero Dependency“ besagt, dass die Anwendung nicht vom Betriebssystem oder dem jeweiligen Hypervisor abhängig ist und die Domänen isoliert voneinander sind, ähnlich der Multi-Tenancy.

Neben dieser „Smart Infrastructure“ hat Nebulon inzwischen auch Smart Edge konfiguriert, zudem Smart Core for Kubernetes, um Container zu unterstützen, sowie Smart IaaS, um Cloud-Service-Providern zu helfen. Nazari erwähnte auch eine „Nebulon Ansible Collection“, um Ansible von Red Hat zu supporten, und ein „Smart Core for VMware“ unterstützt entsprechende VMware-Umgebungen und -Funktionen.

Wer nun Server-Management vermisst hat, der sei getröstet: Die Integration von Server-Management erfolgt im nächsten Release. So manches Unternehmen geht zurück aus der Cloud ins lokale Rechenzentrum, nicht zuletzt aus Gründen der Compliance und Governance. Diesen Vorgang nennt Nazari „Cloud Repatriation“. Selbstredend bietet Nebulon auch für diese Transformation bereits eine Smart Infrastructure an.

„Zero Trust“ betrifft das Prinzip, nach dem die Sicherheitsbelange dieser Architektur realisiert werden. Sie sorgt für die Verschlüsselung von Daten- und Boot-Laufwerken sowie für die infrastrukturweite Wiederherstellung nach einer Ransom- oder Malware-Attacke. CEO Nazari stellte eine neue „Smart Instance for Ransomware“ vor. Die Funktion „Instant Cluster Recovery“ ist für das nächste Release geplant.

Hammerspace

Hammerspace stellt ein parallelisiertes Global File System für das Software-definierte Datenmanagement zur Verfügung. Mithilfe mehrerer Protokolle greift das Filesystem erstens auf die Datenknoten in Reichweite und zweitens auf die Metadaten zu, die sofort anhand der Datenquellen erzeugt werden. Das Motto lautet „Work locally, manage globally“, fasste Marketingleiterin Molly Presley zusammen.

Hammerspace stellt seinen Kunden also Speicherkapazitäten, Datendienste wie Verschlüsselung und Kompression und aufgrund des Parallel GFS ein gewisses Maß an Performance zur Verfügung. Storage-Kapazitäten beziehen NAS, DAS (Direct Attached Storage) sowie bei den Hyperscalern ein. Hammerspace betreibt also keine eigene Cloud, sondern nutzt die Kapazitäten seiner Partner in lokalen oder Managed-Rechenzentren sowie in der Public Cloud. Hammerspace wiederum verlässt sich auf die Dienste seiner Partner: VAST wird etwa für NAS/File genutzt, Cloudian für Object Storage, die Cloud mit PacketFabric und RSTOR Space.

„35 Prozent unserer installierten Basis befindet sich in sieben Ländern in der EMEA-Region“, berichtete Presley. Die Go-to-market-Strategie wird zu hundert Prozent über den Channel umgesetzt. Der wichtigste EMEA-Distributor ist Spinnakar.

Für seine spezifische Nutzung muss jeder Kunde seine Policies erstellen und anwenden. Zu solchen Nutzungsformen gehört nach Angaben von Tony Asaro, SVP of Strategy, die Unterstützung von Mitarbeitern in entfernten Niederlassungen. Werden zusätzliche Rechenkapazitäten benötigt, kommt „Burst for Compute“ zum Zuge: die Verlagerung der benötigten Daten zwischen zwei oder mehr Standorten. Mehrere Rechenzentren eines Unternehmens können Network Attached Storage (NAS) nutzen oder in einer Hybrid Cloud NAS (Private & Public Cloud) verwenden: „Wir machen Tiering, aber kein Caching“, erläuterte Asaro.

Es gibt vier weitere Nutzungsformen. Datenmigration ist wohl eine der häufigsten Anwendungen, und Automated Data Orchestration bedeutet: keine Ausfallzeiten bei der Datenmigration und einen konsistenten Daten(be)stand an beliebig vielen Standorten. Diese Standardisierung lässt sich auch bei Speicherkapazitäten erzielen, so dass stets eine hohe Verfügbarkeit von Systemen gewährleistet ist. „Dieser Anwendungsfall ist beliebt, denn dabei ist keine Storage-Appliance notwendig“, sagte Asaro. Etwas ausgefallener ist die Einbeziehung mobiler gehärteter Storage-Kapazitäten ins GFS von Hammerspace. Das könnte etwa der Fall sein, wenn Militär, Katastrophenschutz oder medizinisches Personal in rauem Gelände tätig sind.

Bildergalerie
Bildergalerie mit 10 Bildern

Pure Storage

Auf die Pure-Storage-Präsentation waren viele Teilnehmer der Online-Konferenz schon gespannt, denn Pure ist mit seinen innovativen All-Flash-Arrays (AFA) führend in diesem Markt. Storage-insider berichtet regelmäßig über Pures Neuheiten. Ein leibhaftiger CTO namens Robert Lee ließ die Spannung ins Unermessliche steigen, und schließlich stellte sich Matthew Burr, der General Manager für FlashBlade, den Fragen.

Als sich zu Burr auch noch Rajiev Rajavasireddy, der VP for Product Management for FlashBlade, gesellte, war klar, dass FlashBlade im Mittelpunkt der Präsentation von Pure stehen würde. Dieses dynamische Duo präsentierte die bekannten Use-Cases, die bekannte technische DirectFlash-basierte AFA-Architektur und die Leistungsmerkmale der FlashBlade-Reihe. Neuerungen an dieser Produktreihe glänzten jedoch durch Abwesenheit.

Als Ausgleich konnte Pure verlautbaren, dass es seine Storage-as-a-Service-Leistung in den neue AI Reasearch SuperCluster (RSC) von Meta, vormals Facebook, einbringt. Der RSC soll der schnellste KI-Supercomputer der Welt sein. Pure versorgt die KI-Forschungsinfrastruktur bereits seit 2017 mit Storage-Technologie.

Der RSC unterstützt die KI-Forscher von Meta bei der Entwicklung neuer und besserer KI-Modelle. Diese lernen aus Billionen von Samples, arbeiten in Hunderten von verschiedenen Sprachen und analysieren nahtlos Text, Bilder und Videos. Ebenso ist es möglich, damit neue Augmented-Reality-Tools zu entwickeln und vieles mehr. Der RSC soll den Weg für die Entwicklung von Technologien für Metas nächste große Computing-Plattform, das Metaverse, ebnen, in dem KI-gesteuerte Anwendungen und Produkte eine wichtige Rolle spielen sollen.

Aktuelles eBook

Herausforderungen für den Speicher: Big Data

Storage-Systeme für große Datenmengen

eBook Storage-Systeme für große Datenmengen
eBook „Storage-Systeme für große Datenmengen“
(Bild: Storage-Insider)

Bei der Speicherung von Big Data wird zunehmend auf Data Lakes zurückgegriffen, doch genügt es nicht, die eintreffenden Datenströme einfach dorthinein zu kippen – dann würde daraus schnell ein „Data Swamp“. Lesen Sie im eBook, wie Sie optimal mit großen Datenbergen umgehen können und wie die entsprechenden Daten optimal für die Bearbeitung bereitgestellt werden können.

Die Themen im Überblick:

  • Big Data und Storage-Systeme
  • Aus Big Data Wert schöpfen
  • Wohin mit den unstrukturierten Daten?
  • Von der lokalen Appliance über Cloud Provider bis in die Hybrid Cloud

(ID:48091866)