Ein kritischer Kommentar von Laurent Fanichet zu SDS, Konvergenz und anderen Storage-Entwicklungen, Teil 1 Die Einfachheit neuer Storage-Konzepte ist schon bald Geschichte
Converged, Defined und Automated, was will man mehr. Die Komplexität der IT-Infrastruktur löst sich scheinbar in Programmierarbeit und Appliances auf. Schön wäre es. Das Gegenteil ist der Fall. Manch flexibler Lösungsansatz erinnert an die ungeliebten Silos und Automatisierung ohne Klassifikation verschiebt die Daten auch nicht sinnvoller.
Anbieter zum Thema

Die zu bewältigenden Datenmengen und deren Komplexität sind außer Kontrolle geraten. Treiber des Problems ist nicht nur der Kapazitätszuwachs. Ebenso trägt die zunehmende Nutzung von Mobile Devices oder Messgeräten zu dieser Entwicklung bei.
Laut den Analysten von IDC werden im Jahr 2020 über 20 Milliarden Geräte existieren, die neue Endpunkte für die Erstellung von Daten darstellen. Diese kommen mit einer zunehmend höheren Anzahl von zu indizierenden Objekten an.
Digital Natives wollen es opulent
Und die Objekte nehmen an Größe zu, was mit der höheren Granularität der Daten zusammenhängt. Siese Informationen will ja mittlerweile fast jeder aufbewahren und speichern. Wer weiß, wofür sie einmal gebraucht werden könnten?
Dann kommt der Zeitfaktor ins Spiel: alle Daten müssen über einen längeren Zeitraum erhalten bleiben, da sie für die Erhebung weiterer Untersuchungen hilfreich sein können. Zudem führt das kontinuierliche Streamen von Daten zu einer neuen und einzigartigen Performance- und Verfügbarkeitsproblematik. Lediglich das Administrations-Budget wächst nicht mit.
Währenddessen tun die "Millennials", also die Personen, die mit dem iPad und dem Internet groß geworden sind, nun ihre ersten Schritte im Arbeitsleben. Sie sind nicht bereit, den alten Stil der Systemadministration hinzunehmen, der es an Benutzerschnittstellen und Auswertungsmöglichkeiten mangelt.
Datenvisualisierung wird den Thron besetzen, da Storage-Anbieter auf die Entwicklungen mit der Bereitstellung von umfangreicheren und besseren Monitoring-, Verwaltungs- und Reporting Werkzeugen reagieren, sowohl für die Datenspeicher als auch die Daten selbst.
Automatisierung allein ist unzureichend
Die einfachste Art der Administration ist es, keine Administration zu haben. 2015 wird man beginnen zu realisieren, dass Speichervorgänge nicht nur automatisiert ablaufen müssen. Sie müssen außerdem geschäftsrelevant sein und über die Möglichkeit verfügen, den Speicherort und die Datenbewegung mit Parametern wie Datenquelle, Datentyp, Nutzer und weiteren organisatorischen und prozessualen Unternehmensinformationen zu verknüpfen. Alles automatisiert – inklusive einer Automatisierung in der Cloud.
Die Flexibilität von SDS kann äußerst kompliziert realisiert sein
Software-defined Storage ist der letzte Schrei. Tatsächlich gaben 96 Prozent der Befragten einer aktuellen Studie von 451 Research an, SDS in Zukunft „wahrscheinlich oder sehr wahrscheinlich“ zu implementieren.
Trotz des aktuellen Hypes scheint kein Konsens über die genaue Definition von SDS zu herrschen. Definiert die Software lediglich die Kontrollebene oder definiert sie auch den Datenpfad? Ist sie proprietär oder Open Source? Oder ist sie (irgendeine) Kombination aus dem genannten?
Je nachdem, welchen Anbieter man fragt, fällt die Antwort aus. Dieses definitorische Vakuum erschwert dem Kunden die Ermittlung des Qualitätsniveaus der unterschiedlichen SDS-Lösungen und natürlich die finale Entscheidung für eine Lösung.
In einer Zeit zunehmender Herausforderungen für IT-Teams und kontinuierlicher Budgetengpässe ist es unwahrscheinlich, dass die Kunden über all die Fähigkeiten und die Expertise verfügen, um die große Bandbreite an IOPS, Durchsätzen, Latenzzeiten, Kosten und Eigenschaften der unterschiedlichen Angebote zu verstehen.
Manchmal ist die proklamierte Flexibilität schlicht gleichbedeutend mit Komplexität – und das bedeutet, dass viele Software-defined Lösungen nicht verständlich genug konzipiert sind, um die Abläufe tatsächlich zu vereinfachen und deshalb wahrscheinlich nicht überleben werden.
2016 werden die Probleme von Converged Storage virulent
Genau wie bei Software-defined Storage gibt es für Converged Storage ähnlich viele Definitionen wie Anbieter. Bei einem Punkt sind sich dann aber alle einig: der Zweck von Converged Storage liegt in der Vereinfachung (Stichwort Easy Button).
Dies erreicht man, indem vordefinierte Algorithmen für die Datenbewegung in eine Kombination aus SSDs und Disk, in eine Scale-out Kombination aus Block, File und Objekt und bisweilen sogar mit einem Pfad in die Cloud und/oder einer zusätzlichen Integrationsschicht mittels Hypervisor integriert werden. Das ist Automatisierung von Daten in einem Device.
Damit die intelligenten Algorithmen und die von den Anbietern definierten Storage Konfigurationen vernünftig arbeiten, müssen die Designer im Vorhinein Annahmen zu den Nutzungsszenarien, Ökosystem und Art der Daten treffen und die Einstellungen diesen Annahmen anpassen.
Das Silo kommt konvergiert zurück
Converged Storage wirft uns so ganz automatisch in die Zeit der applikationszentrierten Storage-Inseln zurück, bei denen die gespeicherten Inhalte nicht geteilt werden können. Aber dieses Problem wird erst 2016 evident.
2015 wird zunächst deutlich, dass Converged Storage zwar Vorteile für wohldefinierte Anwendungsfälle mit moderaten Performance-Ansprüchen mit sich bringen kann; für sehr Daten-intensive Anwendungen trifft das jedoch nicht zu. Diese Applikationen reagieren sehr sensibel auf die individuellen Workflows des Kunden, die Wahl des Speichers und dessen Konfiguration.
Auch wenn das Converged Storage-Konzept prinzipiell gut ist, müssen die Kunden mit hohen Performance-Ansprüchen die Datenrichtlinien ihren eigenen Bedürfnissen anpassen können – um eigene Regeln für die Datenbewegung erstellen zu können.
(ID:43219382)