Mobile-Menu

Anwendungsfall ROBO Hyperkonvergenz optimiert das Management von Außenstellen

Autor / Redakteur: Henri Mak / Ulrike Ostler |

Mit der Hyperkonvergenz hält ein grundlegend neuer Ansatz Einzug in die IT-Welt. Systeme lassen sich standortübergreifend standardisieren und damit komplexe Infrastrukturen ablösen. Geringere Investitions- und Betriebskosten, die optimierte Bereitstellung von Anwendungsservices, ein zentrales Management und ein einfacherer Support sind nur einige der Vorteile, die sich dadurch ergeben. Dies erleichtert Unternehmen unter anderem die Verwaltung von ROBO-Standorten.

Anbieter zum Thema

Einfach - genial: "Hyperkonvergenz ist die größte IT-Revolution seit der Virtualisierung."
Einfach - genial: "Hyperkonvergenz ist die größte IT-Revolution seit der Virtualisierung."
(Bild: © mrswilkins - Fotolia)

Weltweit tätige Unternehmen verfügen typischerweise über eine Firmenzentrale sowie über eine Reihe von Vertriebsbüros und regionale Niederlassungen, die über verschiedene strategische Standorte verteilt sind. Diese sind normalerweise über ein restriktives WAN vernetzt. Obwohl jedes Büro generell einen gewissen technischen Support von der Zentrale erwarten kann, läuft es in der Realität leider doch oft so, dass die dezentralen Niederlassungen – kurz als ROBO (Remote Office/Branch Office) bezeichnet – üblicherweise nicht über eigene IT-Ressourcen verfügen, um ihre komplexen IT-Anforderungen effektiv zu handhaben.

Selbst wenn am Standort ein IT-Fachmann in Teilzeit oder gar Vollzeit beschäftigt ist, kann der Workload zu hoch werden: veraltete Technologien sind nicht in der Lage, mit den sich ständig weiterentwickelnden IT-Anforderungen Schritt zu halten. Probleme treten gewöhnlich immer dann auf, wenn Rechenzentren so komplex und unkontrollierbar werden, dass das zentrale IT-Team Personal in die Außenstellen entsenden muss, um die Engpässe zu lösen. Unter die potenziellen Worst-Case-Szenarien fallen nicht funktionierende Applikationen, mangelnder Zugriff auf benötigte Daten sowie letztendlich eine verschlechterte Produktivität der Mitarbeiter.

Verteilte Datenhaltung erschwert das Management

Gemäß einem neuen ESG Research Report sind folgende fünf Management-Probleme in Außenstellen am gravierendsten: zu langsame Dateitransfers, Kosten der WAN-Bandbreite, zu große Datenmengen für die Übertragung über das WAN, erschwerte Zusammenarbeit mit anderen Teilen des Unternehmens durch technische Probleme sowie die Installation und Pflege von Software-Agenten auf Geräten an ROBO-Standorten.

Diese Herausforderungen verursachen in Unternehmen erhebliches Kopfzerbrechen, wenn geschäftliche Daten über zahlreiche Standorte verteilt sind und insbesondere in diesen Niederlassungen Platten- und Bandspeicher für die Datensicherung eingesetzt werden. Diese Verhältnisse rufen nach Verbesserungen und Änderungen. Nach Angaben von ESG zählen zu den Top-Prioritäten für die ROBO-Umgebung die Verbesserung der Leistungsfähigkeit von Applikationen, die Kontrolle der Zunahme der Datenmenge und verbesserte Datensicherung und -wiederherstellung.

Hyperkonvergente Lösungen vereinfachen die IT

Die Vollrath Company, ein Hersteller von Küchen-Kleingeräten und -Utensilien, hat ihre Zentrale in Wisconsin (USA). Die Firma betreibt mehrere Produktionsstätten, Lager und Vertriebsniederlassungen in Wisconsin und New York, Mexiko, den Niederlanden sowie China. Die Fähigkeit des Unternehmens zur Ausführung aufgabenkritischer Applikationen und zur Sicherung und Replizierung von Daten wurde durch ineffiziente und kostspielige Prozesse blockiert. Mit begrenztem IT-Personal für die Außenstellen musste das Unternehmen ein externes Support-Team engagieren, um Server-Protokolle und Datensicherungen zu beaufsichtigen und wöchentliche Check-Ups zu veranlassen. Dadurch fielen pro Jahr bis zu 30.000 Dollar an Wartungs- und Support-Kosten an.

Vollrath fertigt Küchen-Utensilien und -Ausstattung.
Vollrath fertigt Küchen-Utensilien und -Ausstattung.
(Bild: Vollrath)

Um die IT zu vereinfachen und das Management sowie die Datensicherung in den Außenstellen zu verbessern, ziehen Unternehmen wie Vollrath bei der Prüfung neuer IT-Lösungen aktuelle Ansätze wie beispielsweise eine hyperkonvergente Infrastruktur in Betracht. Diese ermöglicht eine signifikante Verwandlung in eine vereinfachte, effiziente und flexible IT.

Hyperkonvergente Infrastruktur ist eine IT-Infrastruktur für virtuelle Workloads. Basierend auf der Virtualisierung liegt der Management-Schwerpunkt einer hyperkonvergenten Lösung nicht auf der Ebene der IT-Komponenten, sondern auf der Ebene der Applikation oder der virtuellen Maschine. Dies bedeutet, dass es keine Silos von unabhängigen IT-Komponenten gibt und keine Notwendigkeit zur Verwaltung einzelner Geräte. Die IT-Infrastruktur wird einfach und flexibel, ermöglicht so eine verbesserte Geschwindigkeit sowie Flexibilität beim Einsatz der Ressourcen. Und das Beste daran ist, dass eine hyperkonvergente Infrastruktur die Betriebskosten (OPEX) erheblich senken kann.

Rechenzentrum in der Box

Die Vollrath Company löste ihre IT-Probleme durch den Einsatz der hyperkonvergenten Infrastruktur von Simplivity. Der Hersteller liefert ein Rechenzentrum als Komplettlösung, die sich besonders für Außenstellen eignet. Die hyperkonvergente Infrastruktur fasst alle Infrastruktur- und Rechenzentrumsdienste unterhalb des Hypervisors zu einem hochskalierbaren Baustein zusammen, so dass keine einzelnen Infrastruktur- und Softwareprodukte benötigt werden.

Durch Einsatz von zwei oder mehr Hyperkonvergenzsystemen im zentralen Rechenzentrum und an den dezentralen Standorten entsteht eine globale Federation. Dabei handelt es sich um einen hochgradig skalierbarer Pool von gemeinsam nutzbaren Ressourcen. Dieser lässt sich von einer „VMware vCenter“-Konsole aus kontrollieren, ermöglicht die Durchführung effizienter Datentransfers und bietet eine Systemverfügbarkeit der Enterprise-Klasse.

Schnellere WAN-optimierte Datensicherungen

Vor dem Einsatz der Simplivity-Systeme bestand die IT-Infrastruktur bei der Vollrath Company aus zwei „VCE vBlock“-Modellen, von denen sich eines in der Zentrale und das andere 20 Meilen entfernt in einem Backup-Center befand. Für die Datensicherung auf Band nutzte das Unternehmen „Symantec Backup Exec“, beziehungsweise realisierte die Dateisynchronisierung mit dem Plattenspeicher.

Der Erfolg des Simplivity-Einsatzes bei Vollrath.
Der Erfolg des Simplivity-Einsatzes bei Vollrath.
(Bild: Simplivity)

Die Datensicherung dauerte mit diesen Methoden oft Stunden, boten begrenzte Aufbewahrungszeiten und arbeiteten über eine T1-Leitung ohne besondere WAN-Optimierung. Die Ziele für die Wiederherstellungszeit (Recovery Time Objectives, RTOs) waren nur schwer zu garantieren. Die Übertragung großer, aufgabenkritischer VMs über das WAN war zeitraubend und ineffizient, und der gelegentliche Absturz des Rechenzentrums führte zu teuren Datenverlusten.

John Sharp, für die Infrastruktur zuständiger IT-Manager bei der Vollrath Company, sagte in einer neuen Fallstudie: „Es lief darauf hinaus, dass wir uns entscheiden mussten, ob wir da draußen einen weiteren Standalone-Server ohne Redundanz einsetzen sollten oder ob wir weiterhin jemanden kommen lassen, der die Datensicherungen der physischen Windows File-/Applikationsserver managt…es macht einfach eine Menge zusätzlicher Arbeit, einen Standort aus der Ferne zu managen.“

Nach der Einführung von Simplivity-Systemen in ihren zentralen und dezentralen Rechenzentren war die Vollrath Company in der Lage, einen 80 Gigabyte-Server zuverlässig über die WAN-Verbindung in Wisconsin zu transferieren und ihn in der Niederlassung New York zu sichern. Dabei wurde weniger als ein Prozent der Verbindung beansprucht und der Vorgang ließ sich in nicht einmal 15 Minuten abschließen. Die Grundlage hierfür bildete die Kombination der dateneffizienten hyperkonvergenten Infrastruktur und einer WAN-Optimierung, dank der sich Datentransfers zwischen den Standorten reduzieren ließen.

IOPS-Anforderungen begegnen

Technologien für Dateneffizienz, einschließlich Komprimierung und Deduplizierung, wurden in der Vergangenheit zur Lösung des Kapazitätsproblems mit Speichern und Netzwerkbandbreite angewandt. Die Festplattenkapazität ist jedoch nicht mehr die vorrangige Sorge. Das größere Problem ist die Dateneingabe/-ausgabe pro Sekunde (IOPS). Das liegt daran, dass die IOPS-Anforderungen seit Einführung der Virtualisierung um den Faktor 10 zugenommen haben, die Festplatten-IOPS aber stagnieren. Dieses Phänomen, bezeichnet Simplivity als „Datendilemma“.

Typische Infrastruktur mit Außenstellen.
Typische Infrastruktur mit Außenstellen.
(Bild: Simmlyvity)

Trotz Verbesserungen bei der Dateneffizienz ist es schwierig, Deduplizierung und Komprimierung an Produktivdaten in Echtzeit durchzuführen, ohne dass es zu einer Beeinträchtigung der Anwendungsperformance kommt.

Daher war die Deduplizierung und Komprimierung bisher auf Backup-Workloads beschränkt. Die Durchführung der Inline-Deduplizierung, Komprimierung und Optimierung in Echtzeit beim erstmaligen Schreiben der Daten und deren Beibehaltung in einem optimierten Zustand während der gesamten Nutzungsdauer hat beträchtliche Auswirkungen. Werden die Daten am Entstehungsort dedupliziert, lassen sich im weiteren Verlauf erhebliche Ressourcen-Einsparungen erzielen und die erweiterte Funktionalität erschließen, die für die heutige virtualisierte Welt erforderlich ist.

Dateneffizienz ist der Schlüssel

Die „Data Virtualization Platform“ von Simplivity bildet die Grundlage der hyperkonvergenten Infrastruktur. Sie wurde mit dem Ziel entwickelt, die IT zu vereinfachen. Dazu gehört, dass das Datendilemma gelöst und die Dateneffizienz und Applikationsleistung insgesamt signifikant verbessert werden.

Nach Angaben des Herstellers lassen sich mit dem Einsatz seiner Lösung unternehmensweite dreistellige Dateneffizienzraten realisieren, ohne dass hierfür Kompromisse hinsichtlich Performance und Komplexität eingegangen werden müssen. Ein gutes Beispiel hierfür ist, dass die Vollrath Company im Januar 2015 ein Dateneffizienz-Verhältnis von 99:1 erzielte, was Kapazitätseinsparungen von 103 Terabyte ermöglichte.

Umfassende Verwaltung auf VM-Ebene

Nach der Dateneffizienz ist ein globales Management das zweite wichtige Element einer effektiven, unternehmensübergreifenden Lösung: die Verwaltung des gesamten Verbundes, innerhalb der und zwischen den Standorten, von einer einzigen Management-Schnittstelle aus. In ROBO-Szenarien lässt sich durch den Einsatz der hyperkonvergenten Infrastruktur im zentralen Rechenzentrum und von einem oder mehreren hyperkonvergenten Infrastruktursystemen in Außenstellen ein intelligentes Netzwerk von zusammenwirkenden Systemen schaffen. Das wiederum eröffnet enorme Scale-Out-Möglichkeiten. VMs und Ressourcen im Systemverbund werden von einer einzigen Schnittstelle über VMware vCenter gemanagt, was die betriebliche Effizienz maßgeblich verbessert.

Einfach in der Handhabung ist ein Erfolgsgarant.
Einfach in der Handhabung ist ein Erfolgsgarant.
(Bild: © dragonstock - Fotolia)

Simplivity verfolgt den Ansatz des globalen, einheitlichen Managements. Dies wird über eine grafische vollständig in das VMware vCenter integrierte Benutzeroberfläche (GUI) möglich. Ein einziger Administrator kann alle Aspekte des globalen Konvergenzverbundes aus dem Managment-Tool heraus kontrollieren - das heißt: mit einem Tool, das die VMware-Administratoren bereits kennen und regelmäßig verwenden.

Das Management der Simplivity-Plattform erfolgt global auf der VM-Ebene. Das Management von LUNs (Logical Unit Numbers) und Volumes gehört damit der Vergangenheit an. Stattdessen kann ein Administrator VMs per Mausklick in vCenter bereitstellen, verwalten, bewegen und schützen. Darüber hinaus ist die Simplivity Data Virtualization Platform so ausgelegt, dass die Daten mobil sind und während ihrer gesamten Nutzungsdauer in der globalen Federation auch bleiben.

Eine Lösung anstelle vieler

In einem typischen Rechenzentrum spielen in der Regel viele einzelne Produkte zusammen, um kritische Fähigkeiten für Enterprise-Anwendungen zu realisieren: Leistung, Datensicherung, Dateneffizienz und globales Management. Doch warum so viele verschiedene Lösungen?

Enterprise-Applikationen erfordern diese kritischen Funktionalitäten: die Vielzahl der verschiedenen Produkte ergab sich durch das Wachstum der Rechenzentren und den Anstieg der Datenmengen. Die Punkttechnologien stellten vor diesem Hintergrund bislang die einzig verfügbare Option dar. Zuerst war es vielleicht ein Deduplizierungsgerät für die Datensicherung oder eine Optimierungs-Appliance für das WAN. Doch im Laufe der Zeit vervielfachte sich die Zahl dieser Komponenten. Und die meisten davon waren ursprünglich nicht für virtualisierte Applikationen und Workloads ausgelegt.

Im allgemeinen kommen all diese Produkte von verschiedenen Anbietern und werden mit verschiedenen Management-Masken administriert. Dies macht individuell darauf abgestimmte Schulungen nötig. Darüber hinaus erfordert ihr Einsatz jeweils einen eigenen Support- und Wartungsvertrag, zudem werden die Lösungen jeweils zu einem anderen Zyklus erneuert. Hyperkonvergenz zieht hier einen Schlussstrich.

* Henri Mak ist Solutions Architect Director bei Simplivity.

(ID:43946197)