Tintri gibt Tipps zur Speicherplanung

Bauklötze-Prinzip macht Skalierung von virtuellen Umgebungen vorhersagbar

| Autor / Redakteur: Peter Mahlmeister, Martin Hensel / Rainer Graefen

Peter Mahlmeister, Country Manager DACH von Tintri, erläutert die Vorzüge des Baukasten-Prinzips für die Skalierung virtueller Umgebungen.
Peter Mahlmeister, Country Manager DACH von Tintri, erläutert die Vorzüge des Baukasten-Prinzips für die Skalierung virtueller Umgebungen. (Tintri)

Virtualisierung ist in Rechenzentren von Unternehmen heute an der Tagesordnung, die Vorteile unbestreitbar. Für den nachhaltigen Erfolg der Virtualisierung gilt es jedoch, einige Speicherklippen zu umschiffen.

Um rasantem Wachstum und Bedarfsschwankungen gerecht zu werden, muss die Infrastruktur die Skalierung einzelner virtueller Maschinen (VMs) sowie zusätzlich hinzukommende virtualisierte Workloads problemlos unterstützen.

Obwohl Software-definierte Architekturen die Netzwerk-Skalierung erst einmal vereinfachen, zählt die Skalierbarkeit der Gesamtinfrastruktur weiterhin zu den größten Herausforderungen, um Virtualisierung im modernen Rechenzentrum noch umfassender einzusetzen.

Mit der Größe der Bauklötze spielen

Virtualisierte Umgebungen sind ihrem Wesen nach komplex. Diese Komplexität können neue, einfach zu skalierende Systeme reduzieren, indem weitere Virtualisierungshosts nach dem Bauklötze-Prinzip hinzugefügt werden.

Was nach dem Zusammenstecken von Legosteinen klingt, kann zahlreiche Probleme von Unternehmen lösen, die Mehrzweck-Speicherlösungen im Einsatz haben, die nicht speziell für Virtualisierung entwickelt wurden. Wo jedoch liegen genau die Probleme, die zu Engpässen führen? Und wie kann Speicher im Bauklötze-Prinzip diese Probleme lösen?

Skalierung erhöht die Komplexität

Herkömmliche Speicherarchitekturen können durch zusätzliche Datenträger in der Kapazität oder der Leistung skaliert werden. Gerade das macht sie leider ineffizient. IT-Abteilungen, die mit herkömmlichem Speicher arbeiten, stellen für gewöhnlich mehr als den erforderlichen Speicher bereit. Sie überprovisionieren ihn, um die von ihren virtualisierten Umgebungen benötigte Performance zu erzielen. Dies resultiert in überschüssiger, nicht genutzter Kapazität und unnötiger Komplexität.

Außerdem: Die Anzahl der von herkömmlichen Storage-Controllern unterstützten Datenträger ist begrenzt. Ist die maximale Anzahl von Datenträgern erreicht, müssen Unternehmen entweder einen weiteren Controller hinzufügen und den Storage darunter getrennt verwalten oder gleich das kostspielige „Forklift-Update“ wählen - also das bisherige Speichersystem durch ein komplett neues ersetzen. In beiden Szenarien ist die Skalierung ein ständiger Kampf, der zwangsläufig die Komplexität noch vergrößert.

Aufwendige Verwaltung verursacht höhere Gemeinkosten

Obwohl sowohl die Speicherleistung als auch die Skalierungskosten für IT-Administratoren von enormer Bedeutung sind, ist der erhöhte Verwaltungsaufwand für die meisten Abteilungen das wohl größte Problem in diesem Zusammenhang.

Von komplexen, für die Bereitstellung erforderlichen Vorgängen bis hin zur Zuordnung von Speicher in virtuellen Umgebungen: Administratoren sind gezwungen, ihre Speicherumgebungen weit im Voraus zu planen, um die verschiedenen Gruppen von VMs zu berücksichtigen.

Die Zuordnung virtueller Server und virtueller Desktops kann auch erfahrene IT-Administratoren schnell überfordern. Viele Abteilungen verwenden nach wie vor riesige Tabellen für die Zuordnung von Speicher-LUNs oder Laufwerken zu VMs, was eine unglaublich zeitaufwendige, ineffiziente und fehleranfällige Methode der Speicherverwaltung ist.

Trotz dieses Aufwands lässt sich bei herkömmlichen Speichersystemen zudem nur sehr schwer vorhersagen, wie sich die Skalierung auf bestehende virtualisierte Workloads auswirken wird. Bei den meisten Speicherlösungen werden alle VMs in einen großen gemeinsamen Speichertopf geworfen.

In diesem „Eintopf“ besteht wenig bis keine Transparenz, was die Performance individueller VMs anbelangt. Auch gibt es keine Möglichkeit, die Servicequalität bestimmter VMs zu messen. Das Problem wird weiter verschärft, wenn Umgebungen mit zugehörigen VMs so groß sind, dass sie sich über verschiedene Speichersysteme erstrecken.

Hoher Zeitaufwand durch fehlende Übersicht

Durch den mangelnden Einblick in einzelne VMs über den gesamten Speicher hinweg ist die Fehlerbehebung für Administratoren mit hohem Zeitaufwand verbunden. Denn sie müssen sämtliche potenziellen Probleme für mehrere Dimensionen und Workloads zu untersuchen.

Mit herkömmlichem Speicher erfordert die Ermittlung der Ursache von Performance-Schwierigkeiten, insbesondere in größeren Umgebungen, mehrere Verwaltungs-Tools für ganz unterschiedliche Schichten.

Inhalt des Artikels:

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 43024545 / Ressourcen)