Thomas-Krenn freut sich 2015 auf das Jahr der Konvergenz

Die Storage-Bausteine und Standards sind da - es fehlt ein guter Integrator

| Autor / Redakteur: Florian Hettenbach* / Rainer Graefen

Florian Hettenbach, Business Development bei der Thomas-Krenn.AG
Florian Hettenbach, Business Development bei der Thomas-Krenn.AG (Thomas-Krenn.AG)

Der Einsatz von Storage-Technik hat beständig die Tendenz immer kompliziertere Architekturen zu bilden. Florian Hettenbach gibt in diesem Artikel einen Überblick über fast alle aktuellen Storage-Trends und sieht Chancen für eine wesentlich unkompliziertere Datenablage.

Im Jahr 2014 bestimmten Cloud- und Sicherheitsthemen die Diskussion über die Ausstattung von Rechenzentrum und Serverraum, der Speichermarkt bekam vergleichsweise wenig Aufmerksamkeit. Die vergangenen Monate waren dennoch ein Zeitraum, in dem in technologischer Hinsicht wichtige Weichen gestellt wurden, die ein spannendes Jahr 2015 erwarten lassen.

Zwar waren auch die Marketing-Experten wieder fleißig beim Prägen neuer Begriffe, deren tatsächliche Inhalte sich – wenn überhaupt – erst auf den zweiten oder dritten Blick erschließen, aber es haben sich auch einige Technik-Trends verstärkt, die den Storage-Markt lang- oder mittelfristig durchschütteln könnten; allen voran die Entwicklung zur Standardisierung („Open“-Everything) und Konvergenz.

Viele Wege zum SDS

Virtualisierung ist und bleibt der große Motor, der im Storage-Bereich die Entwicklung treibt, neuen Playern Chancen eröffnet und die etablierten unter Zugzwang setzt. Für den Anwender ist dies jedoch ein zweischneidiges Schwert. So hat die neue Flexibilität auf der Serverseite zur Folge, das komplexe Storage-Anbindungen nötig sind, wenn hohe Ausfallfallsicherheit gefragt ist.

Die Antwort darauf, die jetzt wiederum zur Reduktion dieser Komplexität führen soll, heißt: Nicht weniger, sondern mehr Virtualisierung, neuerdings als Software Defined Storage vermarktet (SDS). Ein Paradebeispiel hierfür ist Tintri, das die Konzepte und Abstraktionen der Servervirtualisierung für Storage nutzt und jetzt dabei ist, sich von VMware zu emanzipieren und mehrere Hypervisor-Typen zu unterstützen.

Auch Systeme wie etwa Nutanix, die Compute und Storage mit Virtualisierung in einer fertigen Box als Hyperconverged Systems verkaufen, werden 2015 an Bedeutung gewinnen. Doch letzten Endes muss man sich die Frage stellen, welche Daten oder VMs man an den entsprechenden Hersteller kettet. Virtualisierung als Abstraktionsschicht kann dazu nur förderlich sein.

Flash wird Commodity

Auf dem Server konnten sich SSDs bereits 2014 durchsetzen. Vielen Kunden blieb auch keine andere Wahl, denn als Bootmedien geeignete HDDs unter 500 GByte waren schon im vergangenen Jahr kaum noch erhältlich. Zumindest die Systemadministratoren wird es freuen, ist doch bei Verwaltungsaufgaben die Zeitersparnis beträchtlich, wenn das Betriebssystem auf SSD liegt.

Bei externen Storage-Arrays sind hybride Systeme die Regel. Und es gelang den Herstellern nicht immer, gute Argumente für die offensichtlich höheren Preise für diese oder sogar All-Flash-Arrays zu finden, denn nicht jeder Anwender ist unbedingt auf die höhere Geschwindigkeit angewiesen. In diesem Jahr wird durch die fortschreitende Entwicklung der Triple-Level-Cell-Techologie (TLC) und 3D-NAND die Preisuntergrenze weiter nach unten wandern und damit Flash endgültig zum Mainstream werden.

Das über PCI-Express angebundene NVMe (Non-Volatile Memory Express) könnte frühestens im vierten Quartal 2015 als Performance-Speerspitze im Enterprise-Markt ankommen und sich im Server-Bereich gerade im Einsatz als Caching Medium etablieren.

Object Storage (nicht nur) für Big Data

Gerade im Bereich von extrem dynamischen Speicher-Infrastrukturen mit unvorhersagbarem Datenwachstum werden Objekt-basierte Speicher sich mehr und mehr durchsetzen, da sie die Daten effizienter verwalten und sich relativ einfach und kostengünstig skalieren lassen.

Durch die enorme Speicherkapazität sind Objekt-Speicher auch als Basis für Speicherung und Analyse von Daten unter dem Schlagwort „Big Data“ prädestiniert. Hier hat vor allem die Open-Source-Software Ceph im letzten Jahr noch einmal an Gewicht gewonnen, nachdem deren Hersteller Ink Tank von Red Hat übernommen wurde.

Durch die Verfügbarkeit im Linux-Kernel ist die Einstiegshürde niedrig, die kostenlose Variante gilt als stabil und ist aktueller als die Enterprise-Version, die Red-Hat inklusive kostenpflichtigem Support anbietet.

Inhalt des Artikels:

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 43219689 / Branchen/Mittelstand/Enterprise)