Voll auf Flexibilität und Konsolidierung eingestellt

Hyperkonvergente Infrastrukturen vereinfachen den IT-Betrieb

| Autor / Redakteur: Johannes Wagmüller / Rainer Graefen

(Bild: NetApp)

Unternehmen müssen ihre IT-Bereitstellungs-Prozesse und Infrastrukturen modernisieren, um digital mit dem Wettbewerb Schritt zu halten. An den IT-Betrieb stellt sich deshalb die Anforderung, Flexibilität, einfaches Management, Automatisierung und Skalierbarkeit zu liefern. Wie das mit hyperkonvergenten Systemen gelingen kann.

Rund die Hälfte der Unternehmen treibt die Investitionen in Storage-Systeme und Analytics-Tools voran, um eine unternehmensweite Datenstrategie Realität werden zu lassen. Diese Einschätzung trifft eine aktuelle Studie, die Crisp Research und NetApp durchgeführt haben. Reichen aber moderne Speichersysteme und Echtzeit-Analyse aus, um eine IT-Landschaft flexibel, kostengünstig und leistungsstark aufzustellen? Die Gegebenheiten vor Ort dürfen zum Beispiel nicht die Leistungsfähigkeit der IT einschränken.

Leistungsfähige IT in Außenstellen

So sehen sich Unternehmen, die mehrere kleine Standorte oder Filialen unterhalten, oft gezwungen, in den Außenstellen eigene IT-Systeme zu betreiben. Denn zum einen kann das zentrale Rechenzentrum meist nicht alle Anwendungen bereitstellen. Zum anderen haben die einzelnen Standorte oft besondere Anforderungen.

In der Regel ist jedoch kein oder kaum IT-Personal vor Ort. Deshalb sind hier Lösungen gefragt, die sich schnell und einfach in Betrieb nehmen und managen lassen. Hyperkonvergente Infrastrukturen (HCI) der zweiten Generation eignen sich dafür sehr gut, da sie alle nötigen Rechenzentrumskomponenten kompakt und virtualisiert in einer Box vereinen.

Die Software-gesteuerten und auf einander abgestimmten Server, Storage, Compute, Network und Virtualisierung sind über eine zentrale Konsole administrierbar. Die zudem integrierten Rechenzentrumsfunktionen wie Backup, Deduplizierung und Komprimierung oder WAN-Optimierung vereinfachen das Management weiter. Deployment und Standard-IT-Aufgaben wie das Aufsetzen und Provisionieren einer virtuellen Maschine oder Backups sind automatisiert.

Unternehmen können auf den integrierten Systemen in den Außenstellen verschiedene Anwendungen und Datenbanken parallel betreiben, etwa eine Kunden- und eine Produktionsdatenbank, Business-Applikationen wie SAP oder Microsoft Dynamics, bei Bedarf auch einen File Service und eine Virtual Desktop Infrastructure (VDI).

Da all dies auf einer einzigen HCI läuft, bleibt die erforderliche Infrastruktur einfach sowie leistungsstark – und sie ist kostengünstiger als mit anderen Lösungen. Je nach Bedarf reicht mitunter bereits die Minimalkonfiguration von zwei Chassis mit zwei Compute und vier Storage Nodes aus, um die Fernverwaltung über eine HCI aufzubauen.

Daten einfach und effizient managen

Das Außenstellenbeispiel stellt bereits eine wesentliche Stärke dieser Mikrorechenzentren heraus: einfaches Management. Routineprozesse werden automatisiert anhand von Scripten und Profilen abgewickelt. Darüber hinaus erweist es sich als vorteilhaft, über ein einheitliches Datenformat und eine zentrale Datenmanagementplattform eine einheitliche Datenübertragung zu realisieren.

Wie sich dadurch das Datenmanagement effizienter gestalten lässt, zeigt die NetApp HCI, die in das Konzept der NetApp Data Fabric integriert ist. Die HCI arbeitet nahtlos mit dem NetApp Betriebssystem Ontap zusammen. Dadurch lassen sich Daten komfortabel zwischen verschiedenen Infrastrukturen und Speicherorten verschieben. So unterstützt die HCI moderne Hybid-Cloud- und Multi-Cloud-Umgebungen.

Verschiedene Workloads konsolidieren

Flexibilität, Skalierbarkeit und Ausfallsicherheit sind weitere entscheidende Kriterien, die mit den neuen HCI im IT-Betrieb Einzug halten – und eine nähere Betrachtung lohnen. So sind die neuen HCI Systeme nicht ausschließlich dafür konzipiert, dedizierte Workloads wie VDI auf einer einfachen Plattform zu konsolidieren.

Denn darüber hinaus gestatten die hochintegrierten Systeme den hoch automatisierten Betrieb weitverbreiteter Kernanwendungen, ohne dass die Performance zu wünschen übrig lässt. Damit hebt sich eine neue HCI von einer konvergenten Infrastruktur (CI) ab. Eine CI stößt schnell an ihre Grenzen, soll ihr vorkonfiguriertes und Hardware-zentriertes System aus Server, Speicher, Netzwerk und Virtualisierungstechnik eine zusätzliche Anwendung stemmen.

Eine HCI ist hingegen darauf ausgelegt, verschiedene Workloads auf ihrem System zu konsolidieren.

Die Flexibilität manifestiert sich darin, Anwendungen im Parallelbetrieb auf einem System laufen zu lassen. Diese eingangs erwähnte Fähigkeit beruht darauf, dass die HCI der zweiten Generation eine Schwäche ihrer Vorgängersysteme ausmerzen: Sie verfügen nun über eine garantierte Quality of Service (QoS), indem IT-Verantwortliche jeder Applikation einen Minimalwert, einen Maximalwert und einen Burst-Wert an IOPS zuweisen. Daraus resultiert ein störungsfreier IT-Betrieb, der für stabile Performance steht.

Flexibles Skalieren – wie in der Cloud

Für den stabilen IT-Betrieb reicht es aus, wenn Hardware-Standardkomponenten im Hintergrund ihren Dienst verrichten. In der Speichertechnologie für HCI hat sich Flash etabliert, denn mechanische Festplatten können die hohen Performance-Anforderungen von virtuellen Servern nicht mehr meistern.

Zeichnen sich dennoch Kapazitätsengpässe ab, spielen die neuen HCI-Systeme eine ihrer großen Stärken aus: Es lassen sich weitere Speicher- oder Rechenknoten hinzufügen, und zwar unabhängig voneinander. CIOs vermeiden durch das Skalieren in beide Richtungen Überprovisionierung und sparen Hardware- sowie Lizenzkosten.

Die Vorgängersysteme boten diese Optionen nicht. Zusätzlich bezahlt machen sich die modernen HCI bei der Performance der internen Prozesse – hier verursacht die Hypervisor-Lizenz keine Mehrkosten mehr. Anstelle lizenzpflichtiger CPUs liefern bei ihnen lizenzunabhängige Speicher die nötige Rechenleistung.

Ausfallsicherheit gewährleisten HCI, indem ihr Speicherbetriebssystem jeden Datenblock zweimal ablegt und auf jedem Knoten Metadaten speichert, die angeben, wo sich welcher Block befindet und zu welcher Applikation oder welchem Volume er gehört. Bei einem SSD-Ausfall werden die fehlenden Daten einfach neu in den Cluster hineinkopiert. Das läuft automatisiert innerhalb von nur wenigen Minuten ab.

Eine HCI-Plattform kann das lokale Fundament bilden, um verschiedene Cloud-Szenarien abzudecken. Über RESTful APIs kommt beispielsweise Infrastructure as a Code ins eigene Rechenzentrum. Die IT-Ressourcen lassen sich dann genauso verwenden wie bei den Hyperscalern Amazon Web Services (AWS), Azure, Google & Co.

Für eine Desaster-Recovery-Strategie wird zusätzlich eine zentrale Datenmanagementplattform benötigt, um Daten über hauseigene Schnittstellen direkt in die Cloud zu übertragen. Fällt in der lokalen Infrastruktur etwas aus, wird einfach in der Cloud weiter gearbeitet. Die Cloud-Vorteile ins Haus zu holen, lohnt sich auch, um die quartalsweise anfallende Berechnungen mit einem Business Intelligence System auszuführen.

Fundament für die Evolution im IT-Betrieb

Unternehmen stehen jetzt die marktreifen HCI der zweiten Generation zur Verfügung, mit denen sich ein solides Fundament für einen stabilen und effizienten IT-Betrieb legen lässt. Das HCI-Konzept setzt sowohl auf das Konsolidieren dedizierter Workloads wie VDI als auch von Kernanwendungen, die sogar wegen der integrierten QoS-Funktionalität parallel, performant und hoch automatisiert auf einem System laufen können.

Durch das flexible und unabhängige Skalieren von Compute und Storage sind Anwenderunternehmen zudem in der Lage, einen typischen Cloud-Vorteil in ihrem Rechenzentrum zu nutzen. Insgesamt betrachtet, bringen die neuen HCI Flexibilität, einfaches Management, Automatisierung und Skalierbarkeit mit – alles Aspekte, an denen sich der IT-Betrieb heute in allen Branchen messen lassen muss. Moderne Storage-Systeme und Analytics-Tools allein treiben die Evolution im Rechenzentrum nicht entscheiden voran.

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45102655 / Konsolidierung/TCO)