Typische Fehler[Gesponsert]

5 No-Gos beim Betrieb von Hyper-converged Infrastrukturen

(Bild: Brian Jackson/stock.adobe.com)

Hyper-konvergente Lösungen vereinen Storage- und Server-Funktionalität in einem Hardware-System. Der Einsatz von Standardkomponenten verspricht Kostenreduktion und eine Vereinfachung des Managements, birgt aber auch Risiken. Fünf Punkte sollten bei der Auswahl einer Lösung deshalb unbedingt vermieden werden.

No-Go 1: Alles auf die Hardware

Die Bündelung der Hardware-Ressourcen in einem Gerät ist eine kompakte und effiziente Rechenzentrumslösung, die besonders für Abteilungen, Remote-Standorte oder bestimmte Systemumgebungen geeignet ist. Diese Reduktion und Zentralisierung geht einher mit bekannten Vorteilen: weniger Hardware-Investition, übersichtliches Geräte-Management, geringere Rechenzentrumsfläche, vereinfachte Wartung usw. Das Konzept einer „Infrastruktur in a Box“ führt jedoch nicht selten zu dem Missverständnis, dass hyper-konvergente Lösungen „Geräte“ aus der Hand eines Anbieters sein müssten.

Nach Definition von Gartner integrieren Hyper-converged Systeme die Hardware für Computing, Netzwerk und Storage und machen damit ein herkömmliches Storage Area Network obsolet. Entscheidend dafür, so die Marktanalysten, ist, dass die Storage-Management-Funktionen (für Backup, Recovery, Replikation, Deduplikation, Komprimierung) aus der Hardware gelöst und auf einer übergeordneten Software-Ebene angesiedelt werden. Diese Definition entspricht der Definition von Software-defined Storage. Im Zusammenspiel der Virtualisierungssoftware für Server und Storage liegt der Schlüssel für effektive Hyper-Konvergenz.

No-Go 2: In die Hersteller-Sackgasse tappen

Die Daten-Infrastruktur für das Data Center der nächsten Generation.
Die Daten-Infrastruktur für das Data Center der nächsten Generation. (Bild: DataCore)

Abgeleitet vom Hardware-orientierten Box-Denken, das Vereinfachung suggeriert, werden hyper-konvergente Lösungen oftmals als geschlossene Appliances verstanden und vermarktet. Doch meist wird der Schlüssel nicht mitgeliefert.

Technisch wie wirtschaftlich macht das wenig Sinn, werden doch die Vorteile der Virtualisierung (Software), für die diese Lösungen konzipiert sind und zu deren Errungenschaften Hardwareunabhängigkeit sowie die Nutzung von austauschbaren Standardkomponenten gehören, ad absurdum geführt.

Richtig verstandene Hyperkonvergenz sollte deshalb eine Fortführung der Entwicklung von proprietärer Hardware hin zu einer flexiblen Auswahl an Server-, Netzwerk- und Storage-Komponenten sein. Hyperkonvergenz ist demnach nicht zwangsläufig an einen Hardwarehersteller gebunden. Aufbauend auf Software-definierten Dateninfrastrukturen können ‚Silo‘-Lösungen vermieden werden.

No-Go 3: Skalierbarkeit vernachlässigen

Genau diese ‚Silo‘-Lösungen führen aufgrund der Probleme bei der Skalierung solcher Ansätze zwangsläufig in eine Sackgasse. Unternehmen, die die Einführung hyper-konvergenter Lösungen erwägen, sollten sich deshalb von Beginn an mit den Skalierungskonzepten der jeweiligen Anbieter auseinandersetzen.

Ein hyper-konvergenter Knoten kann mit Server- und Storage-Hardware und der notwendigen Software-Lizenzen leicht Kosten um die 20.000 Euro verursachen. In manchen Fällen werden drei, in anderen nur zwei Knoten benötigt, um eine elementare, aber unerlässliche Hochverfügbarkeit herzustellen. Dies macht für kleine Unternehmen oder Abteilungen bereits einen erheblichen Unterschied bei der Anfangsinvestition. Mittlere und große Unternehmen mit verteilten Standorten und Plattformen müssen überlegen, ob eine hyper-konvergente Architektur vorhandene Infrastrukturen und Plattformen integrieren kann und ob sie bei Erweiterungen auf Jahre hinaus jeweils auf identische Boxen aus der Hand eines Herstellers setzen wollen.

Funktioniert die HC-Lösung also mit heterogener Hardware? Werden diverse Hypervisor-Plattformen unterstützt? Können auch nicht-virtualisierte Applikationen wie Echtzeit-Datenbanken integriert werden? Auf Basis einer Software-definierten Infrastruktur können diese Fragen mit „Ja“ beantwortet werden und die (Selbst-)Beschränkungen bei der Skalierung vermieden werden. Weitere Knoten (Scale-out) können ebenso flexibel gewählt werden wie Komponenten zur Optimierung der vorhandenen (Scale-up).

No-Go 4: Flash als Ultima Ratio

Neben der Kapazitätsverwaltung sollte eine hyper-konvergente Lösung auch ein effizientes, d. h. flexibles Performance-Management ermöglichen. Flash-Speicher ist dabei nur eine der möglichen Komponenten, die in Betracht zu ziehen sind. Hyper-konvergente Ansätze sind mit ein Grund, warum sich Flash im Rechenzentrum etabliert. Hyperkonvergenz auf Basis Software-definierter Architekturen lässt hier nicht nur Spielraum für die Wahl und Zusammenstellung der Komponenten, sie macht Flash teilweise obsolet.

DataCore adressiert das gesamte Anwendungs- und Infrastrukturspektrum.
DataCore adressiert das gesamte Anwendungs- und Infrastrukturspektrum. (Bild: DataCore)

Speicherseitig kann die Performance einer hyper-konvergenten Infrastruktur auch anderweitig skaliert werden. Die meisten hyper-konvergenten Systeme benötigen Flash für das Caching der I/O-Verarbeitung. Bei ausgereiften Software-definierten Lösungen wie etwa dem DataCore Hyper Converged Virtual SAN bleibt Flash dagegen eine Option für Tier-1-Speicheranforderungen, das sind meist 10% der gesamten Kapazität. Für das Caching dagegen wird der performantere DRAM-Arbeitsspeicher genutzt, der in einer virtualisierten Umgebung in der Regel ohnehin üppig konzipiert ist.

Eine weitere spektakuläre Neuerung bei der hyper-konvergenten Performance ist die Einführung der Parallel I/O-Technologie mit der Virtual SAN-Software des genannten Herstellers. Die Technologie ermöglicht erstmals eine adaptive, parallele I/O-Verarbeitung in Mehrkernprozessoren. Vor allem lastenintensive Datenverarbeitungsprozesse bei OLTP-, Echtzeitanalyse-, Business Intelligence- bzw. Data Warehouse-Systemen sowie SQL-, SAP- und Oracle-Datenbanken profitieren von einer Performance-Vervielfachung. Gleichzeitig können virtuelle Maschinen auf hyper-konvergenten Systemen dichter gepackt und damit Einsparpotenziale auf bislang unerreichtem Niveau erzielt werden – ganz ohne SSD oder Flash.

No-Go 5: Abstriche bei Speicher-Services hinnehmen

Hyper-konvergente Lösungen kommen nicht ohne tief ausgereifte Storage-Technologie aus dem Software-defined Storage-Umfeld aus. Der limitierte Einsatz von SSDs basiert auf einem ausgeklügelten, Block-basierten Auto-Tiering. Damit migriert die Storage-Software Datenblöcke von langsamerer auf schnellere Hardware wie SSD oder Flash automatisch. So können im Zusammenspiel mit Parallel-I/O Performance-Steigerungen von bis zu 500 Prozent bei unternehmenskritischen Applikationen wie Datenbanken erzielt werden.

Darüber hinaus ist ein gewisses Maß an Ausfallsicherheit noch nicht gleichbedeutend mit einer im SAN-Umfeld gereiften Hochverfügbarkeitstechnologie, mit hardware- und plattformübergreifenden Automatismen für die Datensicherung mit Failover und Failback. Erst dann kann man von einer transparenten Hochverfügbarkeit sprechen. Darüber hinaus sollte die Virtual SAN-Plattform als Teil der Hyper-konvergenten Lösungen das gesamte Feature-Set einer SAN-Software aufbieten können: elastische Speicherbereitstellung für alle Plattformen, Migrationsunterstützung („in and out“), Snapshots, Thin Provisioning, Multi-Site-Replikation mit Deduplizierung und Komprimierung, CDP, Monitoring und Analyse der Speicherauslastung und vieles mehr. Die wenigsten hyper-konvergenten Anbieter verfügen jedoch über diese SAN-Expertise.

Zu guter Letzt steht wieder die Silo-Frage: Was passiert, wenn die wachsenden Anforderungen technisch oder wirtschaftlich nicht mehr mit herkömmlichen Hyper-Converged Lösungen abzubilden sind? Auch dabei weist die Software-definierte Dateninfrastruktur den zukunftssicheren Weg: DataCore ist der einzige Hersteller, der hyper-konvergenten Speicher mit physischen SANs kombinieren und in einem Parallel-Betrieb effektiv zusammenführen kann.

Die eigentliche Frage ist deshalb nicht, ob Hyper-Converged, Converged oder herkömmliches SAN. Die Frage ist vielmehr, wie Unternehmen heutige RZ-Anforderungen umsetzen können und sich dabei gleichzeitig flexibel für die Zukunft aufstellen können. Der Schlüssel hierfür ist und bleibt die Software.

Autor: Robert Thurnhofer, Senior Marketing Manager Central Europe bei DataCore

Storage-Insider Awards 2017: Jetzt für DataCore abstimmen!

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44796154 / Advertorials)