EMC Ionix IT-Management in virtualisierten Rechenzentren

Autor / Redakteur: André M. Braun, EMC Deutschland / Nico Litzel

Statische Managementtools stoßen in dynamischen IT-Infrastrukturen an ihre Grenzen. Im Cloud-Zeitalter ist es jedoch unabdingbar, ständig wechselnde Abhängigkeiten zwischen Anwendungen und virtualisierten Rechenzentrumskomponenten in Echtzeit abzubilden.

Anbieter zum Thema

Virtualisierung leitet in Rechenzentren einen Paradigmenwechsel ein: Silostrukturen lösen sich auf, bislang isolierte Server- und Speicherkapazitäten wachsen zu gemeinsamen Pools zusammen. Die alte ressourcenzentrierte Sicht weicht umfassender Serviceorientierung. Perspektivisch wird IT zu einem puren Service, der on-Demand erbracht und bei rückläufigem Bedarf ebenso schnell wieder eingestellt werden kann.

Virtuelle Maschinen sind hochbeweglich und können ad hoc verschoben werden. Begriffe wie Flexibilität und Skalierbarkeit erhalten damit eine völlig neue Dimension. Dabei steigert Virtualisierung den Auslastungsgrad, spart Investitionen und verbessert die Synchronisierung zwischen Geschäftsprozessen und IT.

Echtzeit-Transparenz im dynamischen Beziehungsgefüge

So offenkundig die Vorteile der Virtualisierung auch sind – die dadurch ausgelöste Dynamik im Rechenzentrum konfrontiert das IT-Management mit bisher nicht gekannten Herausforderungen. Denn die Managementphilosophie der vor-virtuellen Ära kennt nur statische Zuordnungen zwischen Anwendungen und IT-Ressourcen.

Jetzt aber ändern sich diese Zuordnungen permanent und auf nicht vorhersehbare Weise. Manuell lassen sich diese Änderungen nicht mehr erfassen und dokumentieren; der Aufwand wäre viel zu groß. Zudem wäre das Ergebnis veraltet, noch bevor jemand einen Blick darauf hätte werfen können.

Abhilfe schaffen hier automatisierte Discovery- und Monitoring-Lösungen, die sowohl virtuelle Domänen als auch nicht virtualisierte RZ-Segmente analysieren. Solche Hybrid-Umgebungen sind ja keineswegs die Ausnahme, sondern auf absehbare Zeit der Regelfall. Die automatische Analyse stützt sich dabei auf einen modellbasierten Ansatz, mit dem Wechselwirkungen zwischen Anwendungen und unterschiedlichen Komponenten aus Verhaltensmustern abgeleitet werden, völlig agentenlos. Alle Elemente können in Echtzeit in einer übergreifenden Konfigurationsdatenbank (CMDB) erfasst werden.

Weiter mit: Fundierte Basis für DR- und Backup-Pläne

Fundierte Basis für DR- und Backup-Pläne

Der Mehrwert von automatisierten Discovery-Lösungen liegt auf der Hand: Sie schaffen eine fundierte Basis für Disaster-Recovery- und Backup-Pläne sowie für Change Management, schließlich können selbst bei virtuellen Verschiebungen die Abhängigkeiten im Rechenzentrum jederzeit zugeordnet werden und die Informationen in der CMDB entsprechen akkurat der tatsächlichen IT-Landschaft.

Lohnenswert ist die automatische Konfigurationsüberwachung bereits in frühen Stadien der RZ-Virtualisierung. Beispiele aus der Praxis belegen, dass sich die Projektlaufzeit etwa bei Migrationen von Tier-1-Applikationen allein aufgrund der Sichtbarkeit von Abhängigkeiten um bis zu 80 Prozent verkürzt. Besonders beim Outsourcing hilft das sogenannte Blueprinting: Automatische Discovery-Funktionen liefern ein vollständiges Abbild der gesamten IT-Infrastruktur und können als Ausgangspunkt für die Planung neuer Kundenprojekte dienen, sodass die Kalkulationsbasis nicht nur wesentlich genauer wird, sondern in der Regel auch um 60 Prozent schneller zur Verfügung steht – ein unter Umständen wettbewerbsentscheidender Zeitvorsprung.

Automatische Fehleranalyse für reduzierte Ausfallzeit

Echtzeit-Erkennung der IT schafft die Voraussetzung, um viele Administrationsprozesse im virtualisierten Rechenzentrum zu automatisieren. Hilfreich sind solche Automatismen zum Beispiel bei der proaktiven Fehlersuche: Modell-basierte Lösungen ersparen es den Mitarbeitern, Regeln zu schreiben, um ihre Infrastruktur und ihr Verhalten abzubilden – und vor allem müssen sie diese Regeln nicht manuell anpassen, wenn sich diese Infrastruktur ändert, was bei virtualisierten Umgebungen schlichtweg nicht mehr zu leisten wäre.

Solche automatisierten Lösungen liefern bei einem IT-Ausfall innerhalb kürzester Zeit den Ursachenfehler. Es muss also nicht mehr der eigentliche, auslösende Fehler aus der Flut von Alarmmeldungen identifiziert werden, denn der ist ja bekannt – und so kann die richtige Abteilung den Fehler umgehend beheben. Die Ausfallzeiten sinken dadurch drastisch, dem Kunden können höhere SLAs verkauft werden. Dabei sollte ein strategisch wichtiger Aspekt nicht vergessen werden: Statt kostbare Arbeitszeit in die Fehlersuche zu investieren, können sich die Mitarbeiter auf wichtige Projekte konzentrieren.

Weiter mit: Was heißt da Künstliche Intelligenz?

Was heißt da Künstliche Intelligenz?

Bei einem selbstlernenden Performance-Management werden Alarmmeldungen inklusive möglicher Fehlerursachen generiert, noch bevor die Störung eingetreten ist. Die Software erfasst die Verkehrsdaten im Rechenzentrum und erkennt aus den so protokollierten Infrastrukturdaten, welche dem normalen Verhalten der Netzwerk-, Speicher- und Server-Plattform entsprechen und welche nicht. Somit müssen Mitarbeiter keine Schwellenwerte für Services oder Applikationen mehr definieren. Serviceeinschränkungen für Kunden lassen sich vermeiden; Schwankungen im System können sich nicht auf SLAs auswirken.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Data-Storage und -Management

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Zudem liefern Analysen der Korrelation zwischen Kundenapplikationen und Performance wichtige Aufschlüsse über die Stabilität jeder einzelnen Kundeninstallation – der „Gesundheitszustand“ wird im Performance Management Dashboard übersichtlich angezeigt. Wie die Auswertung historischer Daten nach schwerwiegenden IT-Ausfällen zeigt, wäre schon acht Stunden vor Eintritt mancher Störung eine Frühwarnung möglich gewesen. Der IT-Dienstleister hat oft hohe, nicht selten sechsstellige Vertragsstrafen zu zahlen, wenn SLAs verletzt werden. Automatische Infrastruktur-Überwachung mit modellbasierten Analysen minimieren solche Risiken. Zugleich lassen sich Fehlerbehebungskosten in vielen Fällen um bis zu 90 Prozent reduzieren.

Gesetzliche und unternehmensinterne Vorgaben

Auch im Hinblick auf Compliance mit gesetzlichen Vorgaben oder eigenen Government-Richtlinien versprechen modellbasierte Automatisierungsansätze höhere Effizienz und Zuverlässigkeit. Denn Auswirkungen von Administrationseingriffen auf den Konfigurationszustand des Systems werden damit im Vorfeld abschätzbar, Berechtigungen können vergeben werden und Templates für Change-Prozesse ermöglichen die Vermeidung von Fehlern. Ist die Konfiguration nach einem „Change“ nicht konform mit den Richtlinien, kann automatisch zur Ausgangskonfiguration zurückgegangen werden.

Wichtig sind zudem aussagekräftige Reporting-Tools, die ein akkurates Abbild des momentanen Infrastrukturzustands liefern. Konformitätsnachweise stehen damit quasi per Mausklick zur Verfügung. In der Folge sinkt der Compliance-bedingte Aufwand mitunter auf ein Zehntel.

So vielversprechend es auch ist, dass virtualisierte Welten oder Cloud Computing neue Geschäftsmodelle schaffen – sie bedeuten gleichermaßen einen radikalen Wandel darin, wie Infrastrukturen kontrolliert werden müssen: Nur automatisierte Verwaltungswerkzeuge haben die Dynamik im Griff.

(ID:2048937)