Storage-Insider-Service: Was bei der Dimensionierung von Speicherlösungen zu berücksichtigen ist

Die vier Zeitalter speichertechnischer Innovationen

| Autor / Redakteur: Klaus Kupfer, Senior Systems Engineer bei Nimble Storage / Rainer Graefen

Die Zeitalter der Speichertechnik
Die Zeitalter der Speichertechnik (Bild: IBM)

Der Aufbau oder auch die Modernisierung eines Rechenzentrums ist ein komplexes Unterfangen, bei dem sich IT-Verantwortliche mit unterschiedlichsten Problemen konfrontiert sehen. Doch mit den Innovationen in der Speichertechnik ändern sich auf die Lösungsansätze.

Eine der größten Herausforderungen ist die Dimensionierung des Speichersystems: Leistung und Kapazität des Systems müssen auf aktuelle Anforderungen und zukünftiges Wachstum gleichermaßen ausgerichtet sein, jedoch sollten keine unnötigen Kosten durch überdimensionierte Ressourcen entstehen.

Was die hohe Kunst der Speicherdimensionierung anbelangt, lassen sich vier Phasen unterscheiden:

  • das Zeitalter der RAID-Systeme,
  • das Zeitalter der Virtualisierung,
  • das Zeitalter des Speicher-Tierings und
  • das Zeitalter moderner Speichersysteme.

1. Das Zeitalter der RAID-Systeme

Bis vor nicht allzu langem galt unter Systemadministratoren die Regel, dass ein Speichersystem so dimensioniert werden sollte, dass es den Anforderungen von Host, Netzwerk und Anwendungen entspricht. Im Mittelpunkt stand somit weniger die Leistung, sondern vielmehr eine ausreichende Kapazität. Die Unterstützung durch Server- und Datenbankadministratoren war vor allem dann gefragt, wenn es um die richtigen Einstellungen für die Konfiguration der RAID-Systeme ging.

Damalige RAID-Gruppen mussten noch für mehrere Festplatten desselben RAID-Typs – in der Regel RAID 5 oder RAID 10 – erstellt werden. Während RAID 5 ausreichenden Schutz für RAID-Systeme mit fünf bis zehn Festplatten bot, sorgte RAID 10 für eine wesentlich bessere Performance bei Schreibvorgängen und war somit für schreibintensive Anforderungen wie Protokollvolumes von Datenbanken die beste Lösung.

Da jedoch die Hälfte der vorhandenen Kapazität zur Spiegelung benötigt wurde, war RAID 10 gleichzeitig mit hohen Kosten verbunden. Es galt also, einen Kompromiss zu finden und das System so zu dimensionieren, dass es sowohl den Leistungsbedürfnissen wie auch den Anforderungen an Kosten und Zuverlässigkeit gerecht wurde.

Kapazität und IOPS passen nicht zusammen

Zu dieser Zeit wurde für jedes Volume auf einem bestimmten Host ein eigenes RAID-System erstellt. Ein Server mit vielen Volumes bedeutete somit, dass ein Speicher-Array bereits für den eigenen Gebrauch zahlreiche Festplatten benötigte.

Aufgrund der wesentlich geringeren Speicherkapazität waren selbst für einfache Anwendungen viele Festplatten erforderlich. Somit gab es auch in kleineren Umgebungen eine Vielzahl von Speicherobjekten, die verwaltet, gewartet und erweitert werden mussten. Diese Systeme erforderten eine sorgfältige Planung im Hinblick auf ein optimiertes und möglichst kosteneffizientes Datenlayout – manche dieser Systeme sind noch heute im Einsatz.

Diese Vorgehensweise führte allerdings zu einer Isolierung des Speicher-Arrays: Waren im RAID 1-Pool zwar zahlreiche Ressourcen verfügbar, für eine bestimmte Anforderung jedoch der Zugriff auf ein RAID 5-System erforderlich, konnten selbst bei Einsatz nur eines Controllers die vorhandenen Ressourcen nicht wirklich effizient genutzt werden. Durch Services wie Verschlüsselung wurde dieses Problem weiter verschärft, da noch mehr Pools verwaltet werden mussten.

Die Verwendung von Festplatten für die Erstellung zahlreicher separater RAID-Systeme war ineffizient und hatte zur Folge, dass Kapazitäten ungenutzt blieben, sich nur schwer erweitern ließen und auf den Backend-Systemen teilweise unnötig IOPS-Leistung verbraucht wurde.

Bei jedem neuen Projekt mussten die Infrastrukturadministratoren somit die Array-Konfiguration sorgfältig planen und vor allem auch das Striping und den Schutz der Daten im Blick behalten, damit es bei einem Ausfall der Hardware nicht zu Datenverlusten kam.

1. Fazit: Im Zeitalter von RAID wurden den einzelnen Servern separate RAID-Systeme zugewiesen.

2. Das Zeitalter der Virtualisierung

Mit der Entwicklung von Lösungen für die Speichervirtualisierung versuchten die Anbieter, diese Einschränkungen zu umgehen. Durch Virtualisierung ließen sich RAID-Systeme in großen Pools mit hoher Kapazität zusammenführen.

Auf der Grundlage dieser Ressourcen wurden Volumes konfiguriert und auf den Servern bereitgestellt, um sie passgenau zu dimensionieren, ohne Reserven mit einplanen zu müssen. Da sich die Volumes ganz nach Bedarf dynamisch erweitern ließen, konnte die Festplattenkapazität im Array effizienter genutzt werden, das ermöglichte die Bereitstellung von mehr Volumes auf mehr Servern.

Während einem Server früher bestimmte Festplatten zugewiesen waren – und damit auch ein gewisser IOPS-Wert garantiert werden konnte – konnten sich bei einem Speicherpool die Volumes eines Servers nun auf alle Festplatten im Speicher-Array verteilen und somit auch die IOPS-Leistung des gesamten Arrays nutzen.

Auf diese Weise konnte jeder Server von der gesamten IOPS-Leistung aller Festplatten profitieren, jedoch kam es zu Ressourcenkonflikten, da nun alle Anwendungen um den Zugriff auf die Festplatten konkurrierten. Aufgrund der besseren Nutzung der vorhandenen Kapazitäten spielte die Dimensionierung des Gesamtsystems im Hinblick auf seine Leistung nun eine wesentlich wichtigere Rolle.

Kapazitätszuwachs kontra I/O-Stillstand

Der zunehmende Einsatz virtueller Maschinen, die sich zum De-facto-Standard moderner Rechenzentren entwickelt haben, hat zur Folge, dass es mittlerweile potenziell Hunderte (oder Tausende) solcher virtueller Maschinen gibt, die zügellos um den Festplattenzugriff konkurrieren.

Dies wird auch als "IO blender effect" bezeichnet. Für die Hersteller herkömmlicher Festplatten bringt dies große Herausforderungen mit sich, da sie ihre Produkte so konzipieren müssen, dass diese den IOPS-Anforderungen der Hosts gerecht werden. Rotierende Festplatten bieten zwar bei sequentiellen Lese- und Schreibvorgängen eine gute Performance, sind jedoch bei zufälligen Lese- und Schreibzugriffen wenig effizient.

Während die Kapazität dieser Festplatten deutlich zugenommen hat, ist ihre Geschwindigkeit mehr oder weniger gleich geblieben: Seit vielen Jahren bieten die schnellsten Magnetplatten eine maximale Leistung von 15.000 U/min. Bei vielen Herstellern hat sich die typische Umdrehungsgeschwindigkeit sogar verringert – Festplatten mit 10.000 oder 7.200 U/min wurden zum Standard.

Da in einem Speichersystem somit nur noch wenige Festplatten benötigt wurden, um die gewünschte Kapazität zu erzielen, war es um so wichtiger, Arrays im Hinblick auf ihre Leistung richtig zu dimensionieren. Um die E/A-Anforderungen zu erfüllen, mussten nun lediglich viele physische Festplatten bereitgestellt werden, auch wenn dadurch viele Speicherkapazitäten ungenutzt blieben.

Anwendungsperformance unterschätzt

Eine weitere Folge war, dass fortan bei der Konzeption eines Speichersystems unzählige Aspekte berücksichtigt wurden mussten. Hierzu gehörten die Anzahl der Festplatten, die für die gewünschte Kapazität und Leistung benötigt wurden, die Zuweisung der Festplatten, ihre Gruppierung zu Pools, die Verschlüsselung von Daten und die Frage, welche logischen Volumes welchen Pools angehören sollten.

Administratoren benötigten daher eine umfassende Kenntnis der Anwendungen sowie präzise Leistungsprofile, um die Volumes in den richtigen Pools platzieren, Ressourcenkonflikte auf den Festplatten vermeiden und damit eine zuverlässige Anwendungsleistung sicherstellen zu können.

Da häufig keine zuverlässigen Zahlen zur Anwendungsleistung zur Verfügung standen, fällten sie in Unkenntnis häufig falsche Entscheidungen. Die Folge waren zeitaufwendige Anwendungsanalysen und eine umständliche Erstellung von Profilen.

Fazit 2: Im Zeitalter der Virtualisierung ermöglichten Volumes, die einem großen Festplatten-Pool angehörten, eine effizientere Nutzung der vorhandenen Kapazität.

3. Das Zeitalter des Speicher-Tiering

Die zunehmende Speichervirtualisierung führte zu einer raschen Verbreitung von Flash-Speichersystemen, die zunächst in Verbrauchergeräten und später in Unternehmen eingesetzt wurden. Durch den Einsatz von SSDs der Enterprise-Klasse konnten Speicheranbieter nun zufällige E/A-Vorgänge wesentlich effektiver über Flash-basierte Festplatten als über rotierende Magnetfestplatten unterstützen.

Die Integration von SSDs in herkömmliche Architekturen erfordert Kompromisse beim Design, da die Anpassung von 20 Millionen Zeilen Code für ein 20 Jahre altes Dateisystem nicht gerade einfach ist. Als die ersten Anbieter damit begannen, SSDs in ihre Lösungen zu integrieren, war der Einsatz dieser Festplatten noch mit Einschränkungen verbunden.

In der Regel mussten sie einem separaten Pool zugewiesen werden. Über diesen Pool ließ sich eine überragende Performance erzielen, wohingegen die Kapazität begrenzt war. Der Administrator musste folglich entscheiden, welche Volumes diesem Pool angehören und von der hohen Leistung profitieren und welche auf die langsameren Magnetfestplatten verlagert werden sollten. Der Einsatz teurer SSDs führte nicht bei allen Anwendungen im System zu einer Verbesserung der Performance, sondern nur bei einigen wenigen, die vom Zugriff auf den SSD-Pool profitierten.

Autotiering zur falschen Zeit

Zur Lösung dieses Problems erstellten manche Anbieter Pools mit einer Kombination aus herkömmlichen Festplatten und SSDs – dies war die Geburtsstunde der Tiering-Technologie. Andere Anbieter modifizierten den Fluss der Daten durch ihre Speichersysteme.

Verfahren zur Datenoptimierung wie das automatische Tiering sind jedoch wieder mit ganz eigenen Herausforderungen verbunden, da Daten häufig erst nach der Verarbeitung zwischen einzelnen Speicher-Tiers verschoben werden. Zwar werden die Daten zur Identifizierung aktiver und inaktiver Blöcke in Echtzeit analysiert, doch erfolgt das Verschieben der Daten auf den entsprechenden Festplatten-Tier meist außerhalb der Geschäftszeiten, beispielsweise nachts.

Dadurch erhöhte sich nicht nur die Festplattenaktivität zur Verschiebung der Datenblöcke zwischen den Festplatten – was zudem Backup-Aktivitäten beeinträchtigen konnte– , sondern stand damit paradoxerweise auch den Anwendungen nicht immer die benötigte Leistung zur Verfügung.

Fazit 3: Im Zeitalter des Speicher-Tiering wurden herkömmliche Systeme um SSDs ergänzt, die jedoch meist einem separaten Pool zugewiesen wurden.

4. Das Zeitalter moderner Speichersysteme

Heutzutage ist die Arbeit eines Systemadministratoren lange nicht mehr so kompliziert: War das Dimensionieren einer Speicherlösung früher mit viel Zeitaufwand verbunden und setzte eine genaue Kenntnis der Anwendungen voraus, die darauf zugriffen, gestaltet sich die Sache heute wesentlich einfacher.

Meist genügen vier Fragen:

  • 1. Welche Leistung soll das System bieten?
    Bei dieser Frage kommt es gar nicht so sehr auf eine genaue Antwort an. Es spielt keine wirkliche Rolle, ob ein Kunde 5.000 oder 7.000 IOPS benötigt, was früher wesentlichen Einfluss auf die Lösung hatte. Die Lösungen von Nimble Storage bieten maximale Performance für jedes Gerät – mit mindestens 15.000 IOPS.
  • 2. Welche Kapazität wird benötigt?
    Abhängig von der benötigten Kapazität wird das Array von Nimble Storage mit der entsprechenden Anzahl an Festplatten konfiguriert, die einen zentralen Speicherpool bilden. Überlegungen zur Größe von RAID-Systemen, zur Zuweisung von Festplatten oder zu Poolgrößen sind damit überflüssig.
  • 3. Welche Netzwerkverbindungen werden benötigt?
    Fibre Channel oder iSCSI? Im Falle von iSCSI muss außerdem geklärt werden, ob der Kunde 1-Gigabit- oder 10-Gigabit-Ethernet benötigt.
  • 4. Welche Latenzzeiten haben die derzeitigen Anwendungen?
    Gibt es Anwendungen, die von einer geringeren Latenzzeit profitieren würden? In manchen Fällen ergeben sich daraus erhebliche Vorteile für das Unternehmen.

Häufig liegt bei Speichersystemen das Augenmerk zu sehr auf der IOPS-Leistung einer Plattform. Durch eine Verringerung der Latenzzeit von 40 Millisekunden auf eine werden jedoch nicht nur die Stapelverarbeitung und Abfragen beschleunigt, sondern auch die Anwender profitieren von deutlich mehr Leistung.

Fazit 4: Kennzeichnend für das Zeitalter moderner Speichersysteme sind innovative Lösungen für das Speichermanagement.

Moderne Speichersysteme nehmen Systemadministratoren zunehmend viel Arbeit ab, die früher die die "optimiert" Dimensionierung des Speichersystems inklusive Berücksichtigung des IT-Budgets erbracht werden musst. Das führt erfreulicherweise dazu, dass mehr Zeit für die Entwicklung einer umfassenden Strategie für ihre Infrastruktur einschließlich Virtualisierung, Backup, Disaster Recovery und Anwendungsoptimierung zur Verfügung steht.

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44087051 / Ressourcen)