Mobile-Menu

Hyper-Converged Infrastructure für Storage-Zwecke Welche Vorteile bringt HCI in der Praxis?

Von Michael Matzer 7 min Lesedauer

Mit Hilfe einer hyperkonvergenten Infrastruktur werden die unterschiedlichen IT-Komponenten des Unternehmens – Compute-Ressourcen, Storage und Netzwerke – unter einem Software-Dach zusammengeführt und virtualisiert. Was das für den Storage-Bereich bedeutet, erläutert dieser Beitrag.

HCI-Lösungen versprechen Vorteile wie Modernisierung von Applikationen, Konsolidierung von Infrastruktur und Nachhaltigkeit. Verschiedene Leistungsmerkmale und Funktionen liefern eine leistungsfähige, hoch skalierbare und effiziente Rechenzentrumslösung für Unternehmen jeder Größe.(Bild:  vladimircaribb - stock.adobe.com)
HCI-Lösungen versprechen Vorteile wie Modernisierung von Applikationen, Konsolidierung von Infrastruktur und Nachhaltigkeit. Verschiedene Leistungsmerkmale und Funktionen liefern eine leistungsfähige, hoch skalierbare und effiziente Rechenzentrumslösung für Unternehmen jeder Größe.
(Bild: vladimircaribb - stock.adobe.com)

„Eine hyperkonvergente Infrastruktur, kurz HCI, steht für eine reduzierte und damit einfach zu verwaltende, aber gleichzeitig leistungsfähige und skalierbare IT-Landschaft“, erläutert Christian Winterfeldt, Senior Director Data Center Sales bei Dell Technologies Deutschland. „Durch den Wegfall hochspezialisierter Silos unterstützt dieser Ansatz die schnelle und effiziente Bereitstellung von IT-Ressourcen. Zudem müssen Unternehmen keine dedizierten Teams mit entsprechender Expertise vorhalten. Da mühsame Abstimmungsprozesse zwischen Storage-, Netzwerk- und Server-Mannschaft wegfallen, lassen sich Bereitstellungszeiten bereits auf der Administrationsebene deutlich verkürzen.“

Alles zusammen adressiere eines der größten Probleme der vergangenen Jahre, nämlich die zeitaufwändige Versorgung mit IT-Kapazitäten, obwohl nahezu jeder Geschäftsprozess darauf angewiesen sei. Hinzu komme, dass durch den Shared-Everything-Ansatz weniger Ressourcen als Reserve vorgehalten werden müssten. Damit erfülle HCI den Wunsch des Managements an die IT, mehr mit weniger zu leisten.

„Gleichzeitig erleichtert HCI durch den Software-basierten, virtualisierten Ansatz auch das Lifecycle-Management der Geräte“, so Winterfeldt weiter. „Mit dem Anwachsen des Datenvolumens und steigenden Anforderungen an die Infrastruktur ist ein Stillstand der Systeme keine Option. Dem gegenüber steht die ‚Data Gravity‘, ein schöner Begriff für die Trägheit großer Datenmengen, die sich nicht so einfach hin- und herschieben lassen. Deshalb ist es heute nicht mehr praktikabel, alle paar Jahre riesige Datenberge von veralteter auf neue Hardware zu migrieren. Der große Vorteil des HCI-Ansatzes: Die Virtualisierungsschicht ermöglicht eine kontinuierliche Modernisierung im laufenden Betrieb. Damit reduzieren beziehungsweise vermeiden Unternehmen die sprungfixen Kosten – also solche Ausgaben, die in regelmäßigen Abständen durch größere Anschaffungen, aber auch durch Nachtschichten anfallen.“

Winterfeldt fährt fort: „Weniger offensichtlich, aber umso wichtiger ist ein wesentlicher Vorteil, den Dell Technologies mit seinen HCI-Angeboten bietet: Dell VxRail und Dell PowerFlex beinhalten im Rahmen des Supportvertrags ein komplettes Lifecycle-Management. Unternehmen ersparen sich damit die mühsame und zeitraubende Arbeit, für ihren Infrastruktur-Stack die jeweils neuesten kompatiblen Firmware-Versionen zu suchen, eine Installationsroutine mit der richtigen Reihenfolge zu entwickeln und zu testen und diese dann auszurollen. Für unsere eigenen Lösungen übernehmen wir diese Aufgabe, während wir für die Azure-Stack-Angebote auf unseren Partner Microsoft zurückgreifen.“

Nehme man all diese Vorteile zusammen, sei es kein Wunder, dass die PaaS-Angebote (Platform-as-a-Service) von Dell Technologies unter dem Namen APEX auf einer skalierbaren und letztlich Hardware-agnostischen HCI-Architektur aufbauen.

HCI-Vorteile

„Unternehmen, die HCI einsetzen, reduzieren ihren Aufwand und ihre Kosten gleich in zwei Bereichen: Investition und Betrieb. Der Wegfall von Silos beispielsweise reduziert den Abstimmungsbedarf und damit den administrativen Aufwand. Gleichzeitig haben Firmen einen besseren Überblick über die vorhandenen Ressourcen“, fasst Winterfeldt die Vorteile zusammen. „Darüber hinaus erspart man sich einen großen Teil der oft ungeliebten, aber doch extrem wichtigen Aufgabe eines Administrators, nämlich die IT-Landschaft stets auf einem aktuellen und damit sicheren Release-Stand zu halten.

Die Zahl der Hackerangriffe nimmt stetig zu, so dass es sich kein Unternehmen leisten kann, mit seiner Infrastruktur auf einer veralteten Version zu verharren. Diese zeitraubende Daueraufgabe nehmen wir den Unternehmen ab, indem wir die bei ihnen installierten Konfigurationen in unserem Testcenter auf Herz und Nieren prüfen und fertige Update-Routinen zur Verfügung stellen – fast so, wie man es von seinem Smartphone kennt.“

Solche Update-Routinen haben laut Winterfeldt drei positive Effekte: „Erstens wird das Admin-Team spürbar entlastet. Es kann sich wichtigeren Aufgaben widmen, etwa der Abstimmung mit den Anwendungsabteilungen, die sonst immer zu kurz kommt.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Data-Storage und -Management

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Zweitens erhöht sich die Sicherheit der Umgebung, denn kein Unternehmen ist in der Lage, so umfassend und gründlich zu testen, wie wir das in unserem großen Testcenter können – schon allein deshalb, weil nur wenige Unternehmen eine produktionsidentische Testumgebung bereitstellen können.

Drittens führt die sehr hohe Anzahl an Testläufen, die wir durchführen, um alle Kundeninstallationen wie geplant abzubilden, dazu, dass wir so gut wie alle Bugs finden. Dies reduziert die Anzahl infiltrierter Software, die trotz Fehlern oder Manipulationen ausgerollt würde und wahrscheinlich von den einzelnen Unternehmen unbemerkt bliebe, auf ein Minimum.“

Ein weiterer Vorteil gegenüber herkömmlichen Architekturen sei der große Ressourcenpool, der zur Verfügung stehe: „So können Unternehmen die vorgehaltenen Kapazitäten deutlich reduzieren und bei Bedarf schnell und ohne große Kosten erweitern, indem sie einfach die benötigten Ressourcen zukaufen. Ein Austausch der Infrastruktur alle vier bis sechs Jahre ist nicht notwendig – veraltete Komponenten können bei Bedarf ersetzt werden, Erweiterungen erfolgen ebenfalls granular und nicht zu einem festen Zeitpunkt, der durch Abschreibungszeiträume oder andere Restriktionen vorgegeben ist.

Damit können Unternehmen ihren Ressourcenpool viel besser an den tatsächlichen Bedarf anpassen – mit den entsprechenden finanziellen Vorteilen.“ Der Manager warnt: „Allerdings darf man nicht vergessen, dass mit dem Wechsel zu einer Hyper-Converged-Umgebung auch die Budgetierung flexibler werden muss: Der ‚große Schluck aus der Pulle‘ alle fünf Jahre passt nicht zu dieser Architektur. Vielmehr ist eine gleichmäßige Verteilung der Investitionsbudgets sinnvoll.“

HCI-Vorteile für Storage

Eine HCI-Lösung besteht aus Komponenten, die zuvor in einer Legacy-Architektur in Silos untergebracht war: Server für Rechenleistung, ein Hypervisor für die Virtualisierung, Storage-Medien und Storage-Netzwerke sowie System- und Management-Software. Eine solche Lösung ist vollständig Software-definiert, was es der IT-Abteilung erlaubt, sie auf jeder beliebigen Plattform zu betreiben: Bare Metal, Appliance, Private, Multi- und Hybrid-Cloud, ja, sogar in einer Public Cloud wie etwa MS Azure. Dort steht seit Jahren ein HCI-Stack bereit, der laufend weiterentwickelt wird. Der Vorteil liegt auf der Hand: Der Nutzer überlässt den Betrieb und die Optimierung ganz dem Dienstleister – in diesem Fall Azure – und bucht Kapazitäten hinzu, sobald es nötig wird.

In einem solchen virtualisierten Cluster lassen sich Server als Nodes verwalten und hinzufügen. Das bedeutet, dass auch Storage-Kapazitäten dem gesamten Cluster zur Verfügung stehen. Ein Cluster kann so hoch skalieren, wie es der zuständige Hypervisor zulässt. Ein Linux-Mainframe der z-Serie von IBM kann beispielsweise Zehntausende von VMs und Containern verwalten, weil ihm der nötige Hauptspeicher zur Verfügung steht. Verbreitete Hypervisoren sind Hyper-V von Microsoft, ESXi von VMware, Kubernetes, Open-Source-Hypervisoren oder ein proprietärer Hypervisor wie AHV von Nutanix.

Dieses Stück Software ermöglicht die flexible und sichere Bereitstellung einer HCI. „Sicher“, weil bei praktisch allen Herstellern die höchste Sicherheitsstufe auf der Ebene der Virtualisierung umgesetzt ist. Ob die einzelnen Hypervisoren miteinander zusammenarbeiten, ist eine wichtige Frage, die vor dem Erwerb geklärt werden sollte: Das Stichwort lautet „cross-platform“. Lässt sich hier kein Häkchen machen, dann kommt es wieder zum Vendor-Lock-in, der eigentlich überwunden werden sollte.

Storage-Fabric

Wie die Bezeichnung „hyperkonvergent“ bereits nahelegt, arbeiten auch die Speichermedien in einer HCI nicht getrennt vor sich hin, sondern werden in einer übergreifenden Struktur verwaltet. Eine Storage-Fabric vereinfacht Storage- und Datenmanagement für virtualisierte Umgebungen. Sie verwaltet alle Speichermedien in einem virtuellen Pool, der einen Cluster umfasst. Zugleich kann sie den Pool als Datenspeicher gegenüber der Virtualisierungsebene als iSCSI-, NFS- und SMB-Shares exportieren. Dadurch erübrigt sich die Notwendigkeit von SAN- und NAS-Servern.

Wie man von Hyperkonvergenz erwarten würden, erübrigt sich auch die Notwendigkeit von Storage-Lösungen dritter Anbieter, denn HCI eröffnet ja die Möglichkeit der Storage- und Server-Konsolidierung. Der Nutzer hat üblicherweise die freie Wahl zwischen Hypervisoren, aber das ist nicht immer der Fall, und manchmal lässt sich der HCI-Anbieter den Hypervisor etwas kosten.

Eine Storage-Fabric, die diesen Namen verdient, stellt Funktionen wie Deduplizierung, Kompression, Performance-Optimierung, Datensicherheit zur Verfügung. Dazu gehören auch Funktionen für Backup und Disaster Recovery.

Storage-Management

Interessenten sollten darauf achten, ob die HCI-Lösung sowohl File Storage als auch Object Storage und Block Storage unterstützt. Ist das der Fall, lässt sich das Ergebnis als „Unified Storage“ bezeichnen. Häufig werden der Zugriff auf File Storage durch das SMB- (auf Windows) oder das NFS-Protokoll (auf Linux und Unix), der Zugriff auf Object Storage durch eine S3-kompatible REST-API und der Zugriff auf Block Storage durch iSCSI realisiert.

Der Nutzer sollte darauf achten, wie hoch der jeweilige Zugriff skaliert und ob Lastenausgleich angeboten wird, um beispielsweise Flaschenhälse und so weiter auszugleichen. Manche Hersteller bieten auch Intelligent Tiering an. Damit lassen sich Dateien auf die preisgünstigsten Cloud-Instanzen verlagern. Bei reinen On-Premises-Installationen ist dies nicht relevant, sobald aber Ressourcen in der Public Cloud gebucht und genutzt werden, kann Intelligent Tiering erheblich zur Kostendämpfung beitragen. Es dient auch der Leistungssteigerung, denn die Verlagerung von Workloads auf Flash-Memory statt Festplatten beschleunigt den Zugriff auf solche Daten. Die HCI-Software muss indes mit entsprechender „Intelligenz“ ausgestattet sein.

Netzwerkmanagement mit Mikrosegmentierung, Redundanz, Replikation vs. RAID, Integritätsprüfungen, Netzwerkvirtualisierung, Fehlertoleranz und Resilienz gegen DDoS-Angriffe – sie alle können zur erhöhten Absicherung der Speichermedien gegen unbefugte Zugriffe beitragen. Der Interessent sollte sie auf jeden Fall auf seiner Checkliste haben und im Auswahlprozess berücksichtigen. Ein hoher Grad von Automatisierung durch Regeln und Richtlinien kann einen Admin beträchtlich entlasten – manche Hersteller versprechen eine Entlastung um bis zu 50 Prozent. Die freigewordene Zeit kann ein Admin dann auf qualitativ hochwertigere Aufgaben verwenden.

(ID:49904301)