Mobile-Menu

SDS-Technologien im Überblick Wenn viel Flash nicht viel hilft

Autor / Redakteur: Thomas Drilling / Rainer Graefen

Zwar sind heute die meisten Rechenzentren virtualisiert, allerdings stellen virtualisierte Umgebungen andere Anforderungen an Speichersysteme, als traditionelle IT-Landschaften. Bei Workloads in Cloud- und Virtualisierungs-Umgebungen geht es vor allem um Performance. Und erstaunlicherweise ist Flash nicht immer hilfreich.

Anbieter zum Thema

Die Architektur von Acropolis.
Die Architektur von Acropolis.
( Nutanix)

Will man Storage für virtuelle Umgebungen beschleunigen, sind ohne intelligente SDS-Technologien, wie die im Folgenden Beschriebenen, im Prinzip drei Möglichkeiten vorstellbar:

  • 1. Man kann zum einem vorhandene Systeme mit Flash-Speicher ergänzen. Dies ist zwar ohne Nachteile in Bezug auf den verwendeten Hypervisor möglich, aber relativ teuer. Dafür funktioniert die Methode mit allen gängigen Hypervisoren und mit den meisten Storage-Lösungen, die ein Nachrüsten von Flash erlauben.
  • 2. Eine andere Option bestünde in der Neuanschaffung eines All-Flash-Arrays. Auch diese Option würde die Funktionalitäten des verwendeten Hypervisors, wie z. B. HA oder Live-Migrationen nicht tangieren. Aufgrund der hohen Kosten für All-Flash-Systeme empfiehlt sich diese Möglichkeit ökonomisch betrachtet aber für viele, vor allem kleiner Unternehmen nicht.
  • 3. Eine weitere Möglichkeit wäre es, den Hypervisors mit PCIe-Flash-Beschleunigerkarten als lokalen Speicher zu ergänzen. Da allerdings fast alle fortgeschrittenen Virtualisierungsfeatures shared Storage voraussetzen, ist auch diese dritte Option nur bedingt sinnvoll.

Storage muss VM-aware sein

Das ändert sich, wenn man die Methode lokaler Flash-Erweiterung im Server mit einer SDS-Technologie wie Pernixdata FVP, die quasi den Hypervisor Server-seitig mit Storage-Intelligenz ausstattet. Dieses und andere Verfahren und Produkte sind Gegenstand dieser Zusammenfassung der momentan interessantesten Techniken führender Storage-Hersteller, welche im Wesentlichen dazu dienen, die Datacenter-Infrastruktur mit Hypervisor und Storage hyperkonvergent und letzteren „VM-aware“ zu machen.

Die meisten Lösungen funktionieren aber bereits jetzt auch mit Hyper-V oder haben die Unterstützung für Microsofts Hypervisor für die nahe Zukunft auf der Agenda.

Nutanix Extreme Computing Platform

Das Unternehmen Nutanix ist einer der „ältesten“ Protagonisten“ im Umfeld hyperkonvergenter, Software-definierter Storage-Konzepte, sofern man in diesem Metier von „alt“ reden kann. Unter Wirtschaftsfachleuten würde ein 2011 mit Venture-Kapital gegründetes Unternehmen wohl noch als Startup gelten. Im Sammeln von Risikokapital ist Nutanix sicher führend.

So konnte das Unternehmen bis heute in mehreren Finanzierungsrunden insgesamt 312 Millionen US-Dollar Risikokapital anhäufen. Die Gründungsidee von Nutanix bestand 2011 in der Schaffung einer hyperkonvergenten Server- und Storage-Infrastruktur für Enterprise-Virtualisierung ohne SAN.

Bekannt ist der Webscale-Storage-Spezialist daher in erster Linie für seine hyperkonvergente Infrastruktur-LösungNutanix Xtreme Computing Platform.

Die Kernphilosophie von Nutanix ist, Infrastrukturen für den Administrator transparent zu machen und damit das Management der Infrastruktur zu vereinfachen. Allein die Vereinfachung des Managements von Hypervisor- und Virtualisierungsumgebung soll nach Ansicht von Nutanix ein Einsparpotenzial von rund 80 Prozent bieten.

Zwar laufen laut Nutanix heute tatsächlich bereits ein Großteil der Geschäftsanwendungen in virtuellem Umgebungen, aber auf Basis traditioneller Storage-Arrays. Diese lassen sich jedoch nur mit hohem Zeitaufwand implementieren, skalieren schlecht und verursachen hohe Verwaltungskosten.

Acropolis

Nutanix bietet seine Xtreme Computing Platform sowohl als vollständig Software-basierte SDS-Lösung an, als auch als Komplettlösung Acropolis mit Storage- und Server-Hardware plus Virtualisierungsschicht samt eigenen Hypervisor, ergänzt um das Infrastruktur-Management-Werkzeug Prism.

Während Nutanix‘ hyperkonvergente Plattform anfangs auf ESXi-Server aufbaute, unterstützt die Lösung inzwischen auch Hyper-V, Azure oder AWS. Noch steht jedoch beim Komplettsystem der eigene Hypervisor im Vordergrund.

Genau genommen kombiniert Acropolis den eingebauten Nutanix-Hypervisor mit der Nutanix' SDS-Plattform zu einer hyperkonvergenten Infrastruktur, bei der das neue Infrastrukturmanagementwerkzeug Prism zum komfortablen Verwalten der virtuellen Umgebungen dient. Nutanix positioniert Acropolis als Scale-Out Data Fabric für Storage, Compute und Virtualization.

Nutanix Hardware und Nutanix OS

Nach wie vor verkauft Nutanix aber auch seine Storage-Hardware-Systeme in den Modellreihen 1000, 3000, 6000, 7000, 8000 und 9000, die allesamt mit dem Betriebssystem Nutanix OS ausgestattet sind.

Interessant: Nutanix OS verwendet seit der Version 3.0 ein neues Protokoll. Dieses sorgt dafür, dass neue Knoten, automatisch vom Netzwerk oder Cluster erkannt werden. Administratoren sind so in der Lage, Ihre Cluster ohne Ausfallzeiten zu erweitern.

Dabei findet das Einrichten der Daten einschließlich der neu hinzugefügten Knoten im Hintergrund statt, sodass über den gesamten Speicherpool eine optimale I/O-Performance gewährleistet ist. Darüber hinaus bietet Nutanix seine SDS-Plattform seit einiger Zeit auch als Community-Edition in Form einer Public Beta an.

Erst vor wenigen Tagen vermeldete Nutanix zudem, dass die Community-Edition in Kürze auch via Ravello Systems über Amazon Web Services (AWS) oder Google Cloud Platform verfügbar sein soll.

Was Big-Data-Analytics mit einer Speicher- und Compute-Plattform gemein hat

Eine Besonderheit von Nutanix‘ Extreme Computing Platform ist das Information-Lifecycle-Management (ILM) auf Basis eines in dem Cluster enthaltenen Mapreduce-Frameworks. Eine massiv parallele Big-Data-Architektur ist nach Ansicht von Nutanix die erste ihrer Art in der Storage-Branche.

Das ILM erlaubt z. B. Speicherstufen (Tiering), Festplatten-Wiederherstellung oder ein Rebalancing des Clusters. Nutanix verwendet das Framework aber auch für das adaptive Komprimieren selten genutzter Daten (Cold Data) auf ihrem Weg zur sekundären Speicherebene.

ILM erlaubt Nutanix OS auch ein dynamisches Festlegen, welche Datenblöcke in Abhängigkeit der Zugriffshäufigkeit überhaupt komprimiert werden sollen.

Pernixdata

Die Firma Pernixdata wurde 2012 von Poojan Kumar und Satyam Vaghani im kalifornischen San José gegründet. Poojan Kumar war von 2010 bis 2012 Head of Data Products bei VMware; Satyam Vaghani von 2002 bis 2012 Principal Engineer bei VMware.

Da wundert es kaum, dass das Hauptprodukt FVP (Flash Virtualization Platform) in erster Linie vSphere-Umgebungen adressiert und sich viele technische Details aus dem VMware-Insider-Know-How des Unternehmens ableiten.

Die Gründungsidee von Pernixdata ist, Flash-Speicher dort nutzbar zu machen, wo VMs davon maximal profitieren, nämlich am Hypervisor, allerdings im Gegensatz zu oben skizzierter Problematik ohne den Nachteil, spezielle Virtualisierungs-Features zu verlieren.

Flash Virtualization Platform (FVP)

FVP kann man sich als Beschleuniger für Standard-Storage in virtuellen Umgebungen vorstellen. Der Kern der Software wird in Form eines Kernel-Modus direkt auf dem vSphere Hypervisor installiert und nutzt im Server installiertem Flash (in Form von SSDs oder PCIe-/NVMe-Karten) oder RAM (ab Version 2.5), um Speicher-Zugriffe von der Hardware des Storage-Arrays zu entkoppeln. Laut PernixData verleiht FVP den Speicher virtualisierter Umgebungen Intelligenz, indem Storage-Performance- und Management-Funktionen von der unterliegenden Speicher-Hardware entkoppelt werden.

Wie FVP arbeitet

Mit Hilfe eines durch einen vib-Treiber bereit gestellten Kernel-Moduls verankert sich die Software direkt im vSphere-Kernel, um serverseitig vorhanden Flash-Speicher oder RAM vollständig zu „virtualisieren“. Dank der Entkopplung der VM-seitigen Speicherzugriffe auf Basis der im Server vorhandenen schnellen RAM- und Flash-Speichermedien kann FVP IOPS abfangen, bevor diese den traditionellen Zugriffs-Stack bis auf LUN-Ebene an der angeschlossenen sekundären Speicherebene durchlaufen und beim Storage-Array eintreffen.

Dadurch wird laut Aussage des Herstellers die Storage-Performance im Durchschnitt um den Faktor Faktor 10 beschleunigt. FVP eignet sich unabhängig von der vorhandenen Storage-Landschaft für alle Größenordnungen von kleinen VDI-Umgebungen bis zu großen Datenbank-Setups.

Neben dem eigentlichen Kernel-Modul besteht die Lösung von PernixData noch aus dem PernixData FVP-Management Server, als Vermittler zwischen FVP und den ESXi-Hosts, sowie einem UI-Plugin für den vSphere-Client oder Web-Client.

Mit der seit Anfang September verfügbaren neuen FVP-Version 3.0 steht optional auch ein modernes, HTML5-basiertes UI-Plugin zur Verfügung. Das Pernixdata FVP-Management akzeptiert ausschließlich einen 64 Bit Windows Server ab 2008.

Mehr Performance mit vertretbarem Kostenaufwand

Mit Pernixdata FVP lassen sich Storage-Umgebungen mit vergleichsweise (etwa gegenüber einer All-Flash-Lösung) geringen Kosten und kleinem technischen Aufwand - hier genügt es, die vorhandenen Server lokal mit Flash-Speicher oder mehr RAM auszustatten - wirkungsvoll beschleunigen.

Kleines Manko: die Flash-Hardware muss für FVP exklusiv zur Verfügung stehen und kann nicht etwa gleichzeitig als gewöhnlicher VMFS-Datastore genutzt werden. Der zusätzliche Flash-Speicher im Server kann ebenfalls nicht für vSphere-eigene Beschleunigungsfunktionen wie „VMware Host Cache“ oder „Flash Read Cache“ verwendet werden.

Atlantis USX

Die USX-Plattform von Atlantis, bzw. das eher von VDI-Umgebungen bekannte Ilio USX wird gelegentlich als Konkurrent zu Pernixdata FVP wahrgenommen. Das liegt daran, dass sich USX in einem ähnlichen Szenario, zum Beispiel als Flash-basierter Storage-Beschleuniger einsetzen lässt.

Tatsächlich handelt es sich bei USX aber um eine ausgewachsene SDS-Plattform, die sich weit vielseitiger verwenden lässt. Denkbar sind z. B. folgende Szenarien

  • als redundanter In-Memory-basierter Speicher,
  • als persistenter Speicher (wenn RAM-basierter Storage auf verteilten Speicher repliziert wird),
  • als Hybrid-Array; dieses nutzt das Server-RAM, sowie SAN- oder NAS Storage zur Erhöhung der Performance sowie der Anzahl der VMs,
  • als konvergentes System; hier nutzt USX RAM, Flash und DAS (SAS- oder SATA-Platten) jedes angeschlossenen ESXi-Hosts, um die Ressourcen zu einer integrierten Speicher- und Compute-Plattform zusammenzuführen,
  • als reines All-Flash-Array, das durch Verwendung aller denkbaren Kombinationen von verteiltem und lokalem Flash in der Lage ist, die Flash-Kapazität insgesamt auf das bis zu Fünffache zu erhöhen.

Hyperkonvergente Speicherpools

USX ist aus der Software USX Ilio hervorgegangen, das den Storage für VDI-Anwendungen optimiert. USX steht für „Unified Software-defined Storage“. Die Lösung von Atlantis Computing formt aus vorhandenen SAN-, NAS-, RAM- und jeder Art von Direct-Attached-Storage-Systemen (SSD, Flash und SAS) hyperkonvergente Speicher-Pools und verhält sich gegenüber dem Hypervisor oder vorhandenen Storage-Architekturen agnostisch.

USX unterstützt neben VMwares vSphere-Hypervisor auch den Citrix Xenserver. Ferner arbeitet das Unternehmen mit führenden Storage-Herstellern zusammen. Laut Aussage von Atlantis Computing ermöglicht die In-Memory-Speicherlösung für virtuelle Umgebungen neben einer Performance-Steigerung eine optimierte Nutzung bestehender Ressourcen und damit ebenfalls hohe Kosteneinsparung. Die Architektur ist ähnlich.

USX verwendet vorhandenes Server-RAM als Storage-Tier für virtuelle Maschinen und für „heiße“ Daten. Allerdings beschleunigt USX nicht nur Speicherzugriffe. Dank der zahlreichen Optimierungen sollen sich auch bis zu fünf Mal mehr virtuelle Maschinen auf dem System starten lassen, so Atlantis Computing.

So funktioniert SDS mit USX

USX selbst ist eine reine Software-Lösung. Anwender können die Software auf jedem beliebigen x86-Host installieren, der von VMware auf der Kompatibilitätsliste für ESXi geführt wirdDanach fungiert der entsprechende ESXi-Server als virtuelle Storage-Appliance und verwendet die vorhandenen Speicher-Ressourcen als primäre Speicherebene.

Dazu verwaltet USX alle verfügbaren Speicher-Ressourcen und verteilt sie nach vom Admin konfigurierten Regeln auf sogenannte Speicher-Pool. Dabei unterstützt USX jeden erdenklichen Speichertyp, wie SSDs, PCIe Flash-Karten oder Harddisks.

Eine Besonderheit bei USX: auch der vorhandene Backend-Storage „hinter“ dem ESXi-Servern kann in den SDS-Pool eingebunden werden, egal ob es sich um Block- (iSCSI, SATA) oder NFS-basierten Speicher handelt. Alle so präparierten Server kommunizieren miteinander und replizieren ihre Daten miteinander.

USX Cluster

Ein USX-Cluster stellt technisch gesehen einen redundanten und skalierbaren Objekt-Speicher dar. Die beachtliche Geschwindigkeit ist unter anderem einer Folge der verwendeten Storage-Technologien wie Deduplizierung/ Kompression und I/O-Sequencing im Primärspeicher, die bereits im RAM zum Einsatz kommen, bevor physikalische Zugriffe an der sekundären Speicherebene durchschlagen.

Der Skalierbarkeit sind dabei nach Aussage von Atlantis Computing keine Grenzen gesetzt (Atlantis Computing hat bereits USX-Cluster mit 256 Hosts erfolgreich getestet); allerdings könnte sich bei sehr großen Clustern die eingebaute Echtzeit-Replikation als Flaschenhals erweisen. Zudem sind USX-Cluster tolerant gegenüber RAM-Ausfällen, da wichtige Meta-Daten nicht nur im RAM, sondern auch auf den persistenten Systemen lagern.

USX 3.1-Funktionen

Die neueste USX-Version 3.1 hatte Atlantis Computing samt neuem Stretched-Cluster-Featureauf der VMworld in Barcelona vorgestellt.

Ebenfalls in Barcelona zeigte Atlantis Computing die mit USX 3.1 ausgestatteten neuen Hyperscale-Appliances. Hierbei handelt es sich um hyperkonvergente Komplettsysteme aus Server, Storage und Virtualisierungsplattform, die Atlantis Computing gemeinsam mit ausgewählten Hardwarehersteller wie Cisco, HP, Lenovo oder Supermicro entwickelt und die out-of-the-box einsetzbar sind.

(ID:43736517)