Hohe Skalierbarkeit, höchste Performance und niedrige Kosten lassen sich nicht korrelieren?

Mit XIV startet IBM seinen Paradigmenwechsel in die Scale-Out-Speichertechnik

Seite: 3/5

Firmen zum Thema

Jedes Wachstum braucht Reorganisation

Um Verfügbarkeit der Daten zu gewährleisten, kommt kein RAID zum Einsatz, sondern Yanai hat hierzu einen besonderen Algorithmus entwickelt (IBM nennt das RAID-X), auf den mittlerweile 50 Patente angemeldet wurden und der nur bei den XIV-Maschinen eingesetzt wird: Alle Daten werden in kleine Portionen von je einem MByte (Chunks) aufgeteilt und beim Schreibvorgang über sämtliche Module beziehungsweise Platten des Systems gestreut.

Zur Sicherheit werden sie noch einmal redundant auf alle Festplatten verteilt, wobei jedes Plattenmodul unterschiedliche primäre und sekundäre Chunks enthält. Der Algorithmus verhindert zugleich, dass sich Originale und Doubletten (oder intern gespiegelte Daten) im gleichen Modul befinden. Damit der Algorithmus funktioniert, werden den Daten nur 79 Terabyte an Netto-Kapazität (nicht an dediziertem Plattenplatz) zur Verfügung gestellt, und für die Doubletten noch einmal die gleiche Kapazität. Bezogen auf die Brutto-Kapazität von 180 Terabyte werden also weniger als 50 Prozent effektiv als Speicherplatz genutzt – eine geringere Rate als bei RAID 10.

Performance im labilen Gleichgewicht

Bei einem Ausfall einer oder mehrerer Platten – womit bei den billigeren SATA-Disks ja immer gerechnet werden muss – werden alle Datenblöcke unter Rückgriff auf die Doubletten umkopiert, bis wieder Original und Doppel gleichmäßig über alle Platten verteilt sind. Das Gleiche passiert, wenn eine Festplatte entfernt oder hinzugefügt wird – sofort startet der Algorithmus automatisch und sorgt für eine neue Gleichverteilung aller Daten.

Die in diesem Schema überhaupt nicht genutzte Reserve von 22 Terabyte an Plattenplatz tritt dann in Aktion, wenn bei einem Plattenausfall ein Rebuild der gespeicherten Datenblöcke organisiert werden muss und kein Platz vorhanden ist, um die gespiegelten Daten irgendwo ablegen und dann wieder gleichmäßig verteilen zu können . Der von Yanai entwickelte Algorithmus ist nach offizieller IBM-Aussage in der Lage, einen solchen Rebuild in „weniger als 30 Minuten“ zu schaffen.

Laut IBM ist dieses Verfahren zuverlässiger und schneller als bisherige RAID-Verfahren. Radke von IBM räumt ein, dass RAID 10 von der Performance her die gleichen Effekte erzielen kann. Es gebe aber einen wesentlichen Unterschied in der Praxis: Normalerweise verändern sich in einem Speicherarray, das RAID 5, 6 oder 10 benützt, mit der Zeit die Datenbestände, da die Administratoren neue LUNs planen, konfigurieren oder auch wieder wegnehmen – je nach den Anforderungen von Applikationen und Geschäftsprozessen.

Dabei werde jedoch – so Radke – fast immer der Aufwand gescheut, die Daten nach solchen Veränderungen wieder neu zu verteilen. Eine Redistribution würde zum Beispiel bei Datenbanken sehr viel Planungsaufwand und Performance kosten, wovor viele Kunden einfach zurückschrecken. Das Resultat ist nach Radke ein Daten-Flickenteppich auf den Arrays mit entsprechenden Performance-Problemen. Im Gegensatz dazu wird bei den XIV-Speichergeräten bei jedem Plattenwechsel sofort ein Rebuild ausgelöst, um wieder eine konsistente Gleichverteilung der Daten auf den Modulen und Disks zu erreichen, so dass das System mit unveränderter Performance weiterarbeiten kann.

XIV, am Anfang eines langen Weges

weiter mit: XIV, am Anfang eines langen Weges

(ID:2021374)