Suchen

Herausforderung Big Data Ein Weg für KMUs: Speicherkonsolidierung

| Autor / Redakteur: Christian Barmala* / Ulrike Ostler

Dass die Verwertung verfügbarer Daten inzwischen einer der Schlüssel ist, um sich am Markt zu behaupten, dessen sind sich kleinere und mittelständische Unternehmen (KMUs) schon längst bewusst. Doch um sich diese zu Nutze zu machen, bedarf es einer darauf ausgelegten Infrastruktur. Immer mehr unterschiedliche Speichersysteme zuzukaufen hilft dabei wenig und ist nicht nur finanziell sondern auch technisch gesehen keine Lösung. Doch was ist die Alternative?

Firmen zum Thema

Alles separat zu halten, mag bei Lebensmitteln ein gute Idee sein. Weniger hingegen, wenn es um die Speicherung von Daten geht. Der Einsatz vieler auf unterschiedliche Anforderungen ausgelegter Systeme erschwert nicht nur diese zu Analysezwecken schnell zusammenzuführen. sondern ist auch noch teuer. Die Lösung: Konsolidierung. Tipps, die es dabei zu beachten gilt.
Alles separat zu halten, mag bei Lebensmitteln ein gute Idee sein. Weniger hingegen, wenn es um die Speicherung von Daten geht. Der Einsatz vieler auf unterschiedliche Anforderungen ausgelegter Systeme erschwert nicht nur diese zu Analysezwecken schnell zusammenzuführen. sondern ist auch noch teuer. Die Lösung: Konsolidierung. Tipps, die es dabei zu beachten gilt.
(Bild: gemeinfrei - mosiunterwegs / Pixabay / CC0 )

Große Datenmengen, komplexe Analyse-Anwendungen und zeitkritische Anforderungen verlangen nach hochperformanten Speichern. Darüber sind sich längst auch kleinere und mittelständische Unternehmen (KMUs) im Klaren, denn auch sie gewinnen inzwischen Daten aus Quellen, die vor zehn Jahren noch nicht einmal existierten.

Demzufolge kommen in ihrer Infrastruktur immer mehr Speichersysteme zum Einsatz, die unter anderem zunehmend auch virtualisierte Umgebungen unterstützen müssen. Die Folge: Viele KMUs stehen einem für sie problematischen Storage-Wildwuchs und dadurch explosionsartig ansteigenden Kosten gegenüber, die ihr IT-Budget überprozentual belasten.

Um Big-Data-Workloads auch in Zukunft effizient stemmen zu können, müssen sie ihre Storage-Umgebung zwingend konsolidieren und somit unterschiedliche Speichersysteme auf einer einzigen, effizienteren Plattform zusammenfassen. Diese muss so ausgelegt sein, dass sie sich flexibel an die Kapazitätsanforderungen aller Workloads anpassen lässt, die je nachdem von weniger als einem Terabyte bis hin zu mehreren Petabyte reichen können.

Der "Magic Quadrant for General-Purpose Disk Arrays" von den Gartner-Analysten stammt aus dem Oktober 2017. Solche Speicher-Arrays für fast jeden Zweck wurden entwickelt, um den Bedarf von Anwendungen zu decken, die auf physischen oder virtuellen Servern laufen. Block- und Dateiprotokolle (wie FC, iSCSI, NFS und SMB) dominieren diesen Markt.
Der "Magic Quadrant for General-Purpose Disk Arrays" von den Gartner-Analysten stammt aus dem Oktober 2017. Solche Speicher-Arrays für fast jeden Zweck wurden entwickelt, um den Bedarf von Anwendungen zu decken, die auf physischen oder virtuellen Servern laufen. Block- und Dateiprotokolle (wie FC, iSCSI, NFS und SMB) dominieren diesen Markt.
(Bild: Gartner)

Sechs Aspekte,

1. Performance

Innerhalb einer konsolidierten Plattform gibt es für individuelle Workload-Umgebungen keine hochspezialisierten Lösungen mehr. Daher ist von entscheidender Bedeutung, dass sich diese einfach anpassen lässt, um eine optimale und nachhaltige Performance über eine Reihe von dynamischen Workloads hinweg zu liefern.

Das System muss die Verteilung von Ressourcen über viele Workloads hinweg autonom und in Echtzeit optimal an unvorhersehbare Schwankungen ohne menschliches Eingreifen ausgleichen können. Hier spricht man von "Selbstheilung".

Das Datenlayout wird dabei kontinuierlich optimiert, um Leistungssteigerungen zu erzielen. Dabei treffen zwei eigentlich widersprüchliche an das Storage-System gestellte Anforderungen aufeinander. Greifen viele Applikationen gemeinsam auf ein Storage-Array zu, darf es einer Anwendung nicht erlaubt sein, dessen gesamte Performance in Anspruch zu nehmen, so dass andere "verhungern" (Fairness). Zum anderen sollte sie dennoch alle verfügbaren Speicherressourcen nutzen können, auch wenn sie nur über eine geringe Anzahl von Speichergeräten verfügt.

2. Zuverlässigkeit

Mit der Konsolidierung wird die Zuverlässigkeit der Storage-Umgebung ein noch wichtigeres Kriterium als zuvor. Die Messlatte muss sich dabei an der kritischsten Anwendung in der gesamten zusammengeführten Umgebung orientieren und die anderen Applikationen von diesem Design profitieren lassen. Das ist nur machbar, wenn die Storage-Kosten gesenkt werden. Warum sollte man andernfalls in eine qualitativ hochwertige Anwendung investieren?

Ein weiterer Grund, warum die Zuverlässigkeit von Komponenten und Systemen wichtiger wird, ist die mit der Konsolidierung einhergehende Vergrößerung der Ausfall-Domäne. Hierbei handelt es sich um einen Satz von Komponenten, die parallel auf einmal ausfallen können. Zum Beispiel zählt ein Server als Ausfall-Domäne, ebenso wie eine auf diesem laufende virtuelle Maschine (VM). Die Größe des Explosionsradius – also der maximalen Auswirkung im Falle eines Ausfalls – ist ebenfalls abhängig von der Ausfall-Domäne.

3. Auslastung

Betreibt man sogenannte "Storage-Silos", also viele Storage-Arrays für unterschiedliche Zwecke, muss auf jedem einzelnen Gerät Platz gelassen werden. Kommen beispielsweise zehn separate Speichersysteme mit jeweils 100 Terabyte Kapazität zum Einsatz, sollten Unternehmen darauf achten, dass jeweils nicht mehr als 80 Terabyte in Anspruch genommen werden. Nur so bleibt Raum für dynamisches Wachstum.

Rechenzentren mit einer solchen Speichersilo-Struktur neigen zu einer eher geringen Auslastung, da viele Workloads auf individueller Basis bedient werden müssen – Server für Server, manchmal sogar Workload für Workload. Das ist nicht nur verschwenderisch im Sinne der Speicherkapazität, sondern treibt auch die Anschaffungs- und Betriebskosten in die Höhe.

Um die Betriebseffizienz zu steigern, sollten KMUs eine höhere Auslastung auf einem einzigen skalierbaren System anstreben. Nutzt man beispielsweise ein Storage-Array mit einer Kapazität von einem Petabyte, kann man dieses mit einer Auslastung von 90 Prozent laufen lassen und es bleiben immer noch 100 Terabyte für Wachstum frei. Generell erweist sich die Bündelung von Ressourcen in der IT immer als eine sinnvolle Entscheidung. Das hat VMware so erfolgreich gemacht: man erstellt einen Pool aus allen Servern und nutzt diesen effizienter.

Durch die Verwaltung nur weniger Systeme entstehen geringere OpEx-Kosten und das Storage-Team kann sich anstelle auf alltägliche operative Routineaufgaben auf solche konzentrieren, welche die Wachstumsziele des Unternehmens unterstützen. Durch eine solche Konsolidierung können Unternehmen ihren Speicherplatz deshalb besser auslasten. Dies senkt nicht nur die Investitionskosten, sondern auch für betreuungsintensive Storage-Services aufzuwendende Ausgaben und spart zudem Überkapazitäten ein.

4. Dichte

Je knapper der Platz im Rechenzentrum wird, desto kostengünstiger erweist sich eine Konsolidierungsplattform mit höherer Flächendichte. Damit misst man das Datenvolumen, das in Gigabyte pro Quadratzoll gespeichert werden soll. Alternativ lassen sich auch Terabyte pro Rack oder verbrauchte Kilowattstunden pro Terabyte messen.

Die Konsolidierung wird die Kapazität des Rechenzentrums und die Kosteneffizienz erhöhen, da weniger Systeme für die Datenspeicherung erforderlich sind und damit der Energiebedarf sinkt. Das beste Ergebnis lässt sich erzielen, indem man sich auf die Plattform konzentriert, die die richtige Balance zwischen

  • dem pro Quadratmeter Rechenzentrumsfläche höchsten speicherbaren Datenvolumen und dem Stromverbrauch herstellt.

5. Einfachheit

Eine intelligent arbeitende und sich selbstoptimierende Speicherplattform verringert auch den Betreuungsaufwand für Storage-Administratoren. Diese müssen ihre Zeit nicht mehr in den ständigen iterativen Zyklus von Messung, Tuning und Validierung der Performance über einen breiten und tiefen Workload-Mix hinweg investieren. Schon bei Einführung einer zentralen konsolidierten Management-Plattform sollte jede Schulung für das neue System schnell und effizient sein. Dies gewährleistet, dass zwischen der Bereitstellung und der Inbetriebnahme weniger Zeit ins Land geht.

Hier greift erneut das Stichwort Selbstheilung: Regelt das Storage-System die Optimierung von Auslastungen automatisch, anstatt sich der Hilfe eines Administrators bedienen zu müssen, wechselt man von einer Art "Erste-Hilfe-Modus" hin zu einer das operative Geschäft des Unternehmens wirklich unterstützenden Speicherinfrastruktur.

6. Skalierbarkeit

Die konsolidierte Speicherplattform muss außerdem umfangreiche und wachsende Datenmengen sowie signifikante Arbeitsgruppengrößen bewältigen können. Die Größe der Arbeitssätze variiert je nach Anwendung und Workload-Umgebung. Daher muss die Plattform Workloads mit einem potenziellen Umfang von weniger als einem Terabyte bis hin zu mehreren Petabytes bewältigen.

Christian Barmala von Infinidat erläutert welche Anforderungen für eine Konsolidierung angedachte Speichersysteme generell erfüllen sollten.
Christian Barmala von Infinidat erläutert welche Anforderungen für eine Konsolidierung angedachte Speichersysteme generell erfüllen sollten.
(Bild: Infinidat)

Zusammenfassend bietet die Storage-Konsolidierung KMUs eine gute Möglichkeit, um Kosten zu senken und gleichzeitig die betriebliche Effizienz und Flexibilität ihrer IT-Organisation zu erhöhen. Eine richtig konzipierte und implementierte Plattform birgt für wachsende Unternehmen eine Reihe von Vorteilen. Voraussetzung dafür ist allerdings eine sorgfältige Planung einschließlich der Berücksichtigung bewährter Best Practises sowie eine Überprüfung, ob der gewählte Weg letztlich zum gewünschten Ziel führt.

* Diesen Beitrag haben wir von unserem Schwesterportal DataCenter-Insider übernommen.

* Christian Barmala ist Solution Architect DACH bei Infinidat.

(ID:45209264)