Suchen

Tintri gibt Tipps zur Speicherplanung Bauklötze-Prinzip macht Skalierung von virtuellen Umgebungen vorhersagbar

| Autor / Redakteur: Peter Mahlmeister, Martin Hensel / Rainer Graefen

Virtualisierung ist in Rechenzentren von Unternehmen heute an der Tagesordnung, die Vorteile unbestreitbar. Für den nachhaltigen Erfolg der Virtualisierung gilt es jedoch, einige Speicherklippen zu umschiffen.

Firma zum Thema

Peter Mahlmeister, Country Manager DACH von Tintri, erläutert die Vorzüge des Baukasten-Prinzips für die Skalierung virtueller Umgebungen.
Peter Mahlmeister, Country Manager DACH von Tintri, erläutert die Vorzüge des Baukasten-Prinzips für die Skalierung virtueller Umgebungen.
(Tintri)

Um rasantem Wachstum und Bedarfsschwankungen gerecht zu werden, muss die Infrastruktur die Skalierung einzelner virtueller Maschinen (VMs) sowie zusätzlich hinzukommende virtualisierte Workloads problemlos unterstützen.

Obwohl Software-definierte Architekturen die Netzwerk-Skalierung erst einmal vereinfachen, zählt die Skalierbarkeit der Gesamtinfrastruktur weiterhin zu den größten Herausforderungen, um Virtualisierung im modernen Rechenzentrum noch umfassender einzusetzen.

Mit der Größe der Bauklötze spielen

Virtualisierte Umgebungen sind ihrem Wesen nach komplex. Diese Komplexität können neue, einfach zu skalierende Systeme reduzieren, indem weitere Virtualisierungshosts nach dem Bauklötze-Prinzip hinzugefügt werden.

Was nach dem Zusammenstecken von Legosteinen klingt, kann zahlreiche Probleme von Unternehmen lösen, die Mehrzweck-Speicherlösungen im Einsatz haben, die nicht speziell für Virtualisierung entwickelt wurden. Wo jedoch liegen genau die Probleme, die zu Engpässen führen? Und wie kann Speicher im Bauklötze-Prinzip diese Probleme lösen?

Skalierung erhöht die Komplexität

Herkömmliche Speicherarchitekturen können durch zusätzliche Datenträger in der Kapazität oder der Leistung skaliert werden. Gerade das macht sie leider ineffizient. IT-Abteilungen, die mit herkömmlichem Speicher arbeiten, stellen für gewöhnlich mehr als den erforderlichen Speicher bereit. Sie überprovisionieren ihn, um die von ihren virtualisierten Umgebungen benötigte Performance zu erzielen. Dies resultiert in überschüssiger, nicht genutzter Kapazität und unnötiger Komplexität.

Außerdem: Die Anzahl der von herkömmlichen Storage-Controllern unterstützten Datenträger ist begrenzt. Ist die maximale Anzahl von Datenträgern erreicht, müssen Unternehmen entweder einen weiteren Controller hinzufügen und den Storage darunter getrennt verwalten oder gleich das kostspielige „Forklift-Update“ wählen - also das bisherige Speichersystem durch ein komplett neues ersetzen. In beiden Szenarien ist die Skalierung ein ständiger Kampf, der zwangsläufig die Komplexität noch vergrößert.

Aufwendige Verwaltung verursacht höhere Gemeinkosten

Obwohl sowohl die Speicherleistung als auch die Skalierungskosten für IT-Administratoren von enormer Bedeutung sind, ist der erhöhte Verwaltungsaufwand für die meisten Abteilungen das wohl größte Problem in diesem Zusammenhang.

Von komplexen, für die Bereitstellung erforderlichen Vorgängen bis hin zur Zuordnung von Speicher in virtuellen Umgebungen: Administratoren sind gezwungen, ihre Speicherumgebungen weit im Voraus zu planen, um die verschiedenen Gruppen von VMs zu berücksichtigen.

Die Zuordnung virtueller Server und virtueller Desktops kann auch erfahrene IT-Administratoren schnell überfordern. Viele Abteilungen verwenden nach wie vor riesige Tabellen für die Zuordnung von Speicher-LUNs oder Laufwerken zu VMs, was eine unglaublich zeitaufwendige, ineffiziente und fehleranfällige Methode der Speicherverwaltung ist.

Trotz dieses Aufwands lässt sich bei herkömmlichen Speichersystemen zudem nur sehr schwer vorhersagen, wie sich die Skalierung auf bestehende virtualisierte Workloads auswirken wird. Bei den meisten Speicherlösungen werden alle VMs in einen großen gemeinsamen Speichertopf geworfen.

In diesem „Eintopf“ besteht wenig bis keine Transparenz, was die Performance individueller VMs anbelangt. Auch gibt es keine Möglichkeit, die Servicequalität bestimmter VMs zu messen. Das Problem wird weiter verschärft, wenn Umgebungen mit zugehörigen VMs so groß sind, dass sie sich über verschiedene Speichersysteme erstrecken.

Hoher Zeitaufwand durch fehlende Übersicht

Durch den mangelnden Einblick in einzelne VMs über den gesamten Speicher hinweg ist die Fehlerbehebung für Administratoren mit hohem Zeitaufwand verbunden. Denn sie müssen sämtliche potenziellen Probleme für mehrere Dimensionen und Workloads zu untersuchen.

Mit herkömmlichem Speicher erfordert die Ermittlung der Ursache von Performance-Schwierigkeiten, insbesondere in größeren Umgebungen, mehrere Verwaltungs-Tools für ganz unterschiedliche Schichten.

(ID:43024545)