Kommentar von Herbert Bild: Mehr Daten, weniger Speichermanagement? Warum sich Storage-Administratoren auf das Jahr 2016 freuen können

Autor / Redakteur: Herbert Bild / Rainer Graefen

Die digitale Transformation treibt das Datenwachstum voran. Projekte für Big Data oder das Internet der Dinge sorgen dafür, dass dem Storage-Verantwortlichen auch in diesem Jahr nicht langweilig wird. Aber wird das Speicher-Management auch einfacher?

Anbieter zum Thema

Data Fabric ist das von NetApp entwickelte Konzept für ein zukunftsfähiges Datenmanagement, mit dem Unternehmen eine Multi-Cloud-Infrastruktur betreiben.
Data Fabric ist das von NetApp entwickelte Konzept für ein zukunftsfähiges Datenmanagement, mit dem Unternehmen eine Multi-Cloud-Infrastruktur betreiben.
( NetApp)

Auch einem IT-Administrator reißt irgendwann der Geduldsfaden. Mit jedem Update der System-Management-Software beschert der Hersteller dem Anwender eine weitere Überraschung:

  • Neue Bildschirmmasken und Funktionen, die plötzlich hinter ganz anderen Menüpunkten versteckt sind, machen eine erneute Einarbeitung in die Software notwendig.
  • Mühevoll entwickelte Skripte für die Automatisierung von Abläufen funktionieren auch nicht mehr. Kurzum: so mancher Nutzer fragt sich, wo denn hier der Fortschritt bleibt.

Ein Tool für den Pool

Bei Netapp sind Experten wie Lee Caswell, Vice-President Marketing für Produkte, Lösungen und Services, der Meinung, dass Anwender in diesem Jahr ganz generell eine deutliche Weiterentwicklung von Storage-Lösungen dahingehend erleben, dass diese System noch leichter einsetzbar sein werden als bisher.

Die Hersteller reagieren damit auf den Trend nach schneller zu implementierenden Lösungen, die möglichst ohne großen Trainingsaufwand sofort einsetzbar sind und damit das Management von Storage-Umgebungen vereinfachen.

Für den Administrator geht es insbesondere darum, mit möglichst nur noch einer Management-Software den gesamten Pool an Storage-Systemen zu verwalten. Dies umfasst Aufgaben wie das Einrichten neuer Flash-Systeme ebenso wie die sichere Integration externer Cloud-Ressourcen in eine hybride Cloud-Infrastruktur.

Hinter diesem Trend steht natürlich der Wunsch des CIOs, die Kosten für den laufenden IT-Betrieb zu optimieren. Ist zum Beispiel der Administrator in der Lage, mithilfe einer leichter zu bedienenden Management-Software die Storage-Systeme schneller und effizienter zu konfigurieren, spart dies Zeit und Personalkosten.

Die IT-Betriebskosten (TCO - total cost of ownership) verringern sich und die Mitarbeiter können die so gewonnene Zeit dazu nutzen, die IT-Landschaft insgesamt weiterzuentwickeln.

TByte/Admin optimieren

Für einen CFO wäre es an dieser Stelle interessant zu erfahren, wann und in welchem Umfang sich die IT-Kosten durch beschleunigte Abläufe tatsächlich optimieren. Allerdings gibt es hierfür keine allgemeingültigen Beispielrechnungen, da diese Prozesse in jedem Unternehmen sehr individuell ausgeprägt sind. Jedoch hilft eine andere Kennzahl weiter: das Verhältnis von administriertem Speicher pro IT-Mitarbeiter. Im englischen Sprachraum gibt es dafür die TB/FTE-Ratio: Terabyte per Full-Time Employee. Eine Analyse von Gartner zeigt, wie sich die Kennzahl in den vergangenen Jahren verändert hat. Im Jahr 2010 lag dieser Wert noch bei 81 TByte pro Storage-Administrator, während im Jahr 2014 ein Admin bereits 299 TBytes an Storage zu verwalten hatte. Während also die Speicherkapazität in den Rechenzentren kontinuierlich steigt, bekommen die IT-Experten damit auch mehr Arbeit. Und um diesen Mehraufwand zu reduzieren, werden Abläufe rund um den IT-Betrieb weiter automatisiert und gleichzeitig müssen Hersteller dafür sorgen, dass ihre Storage-Systeme mit weniger Aufwand betrieben werden können.

Digitale Transformation treibt die IT vor sich her

Mit der immer weiter steigenden Abhängigkeit der Geschäftsprozesse von IT-Infrastrukturen rücken die zugrundeliegenden Storage-Systeme stärker in den Fokus des CIOs. Daten müssen heute rund um die Uhr und ohne Unterbrechung abrufbar sein und gleichzeitig müssen die Speichersysteme über Schutzmechanismen verfügen, die dabei helfen, einen Datenverlust zu verhindern.

Um die Datenverfügbarkeit zu erhöhen, zum Beispiel bei schnell wachsenden Big- Data-Szenarien, setzen Unternehmen auf eine Scale-Out-Architektur. Hierbei geht es darum, mit modularen Systemen eine horizontale Skalierung der Storage-Umgebung zu erreichen.

Mit dem Hinzufügen von zusätzlicher Hardware lässt sich also ein Storage-Array vergrößern, wobei die Verwaltung immer noch einheitlich und von zentraler Stelle aus erfolgt. Die so gewonnene Speicherkapazität steht natürlich unabhängig von den einzelnen Hardware-Arrays in einem gemeinsam Pool mit einheitlichem Namensraum zur Verfügung. Ein weiterer Vorteil des Konzepts: fällt ein einzelner Knoten aus, lässt sich dieser schnell ersetzen.

Die Anwender an ihren Arbeitsplätzen merken in der Regel von solchen Ausfällen gar nichts. Bei einem sehr hohen Automatisierungsgrad wird der IT-Administrator auf den Ausfall einer Speicherkomponente erst aufmerksam, wenn der Servicepartner just-in-time mit einem Ersatzteil vor der Tür steht.

Ab in die Cloud und die Füße hochlegen

Mit der Integration von Cloud-Ressourcen in die Storage- oder Backup-Infrastruktur gewinnt die IT-Organisation weitere Optimierungspotenziale. Leistungen wie Backup as a Service automatisieren die Datensicherung und schaffen gleichzeitig mehr Sicherheit, da wichtige Daten an einem zweiten Standort gespeichert werden.

Wer seine operativen Daten erst einmal vollständig in die Cloud gesichert hat, bekommt als angenehmen Nebeneffekt einen zweiten Disaster Recovery-Standort zu geringen Mehrkosten. Wer in die Cloud geht, sollte jedoch darauf achten, sich eine hohe Agilität bei der Nutzung von Cloud-Ressourcen zu erhalten.

Wichtig ist es, dass das Unternehmen seine Daten über Cloud-Plattformen hinweg verschieben kann, beispielsweise um einen Vendor-Lock-in zu umgehen und weiterhin die jeweils preisgünstigen Cloud-Ressourcen zu verwenden.

Außerdem wird es mit dieser Agilität möglich, sich ändernde Datenschutzanforderungen zu erfüllen, die sich aus der aktuellen Safe Harbor-Rechtsprechung ergeben. Mit dem von Netapp entwickelten Data Fabric-Konzept wird deutlich, wie Unternehmen die aktuellen Anforderungen erfüllen und gleichzeitig die Basis für eine Software-defined Storage-Plattform legen, um so noch schneller auf veränderte Geschäftsanforderungen reagieren zu können.

Gleichzeitig bringt das Data-Fabric-Konzept die notwendigen Methoden und Techniken für ein sicheres Datenmanagement in hybriden Cloud-Umgebungen, damit Administratoren zukünftig mit einem Mausklick selbst größte Datenmengen sicher im Griff haben.

Artikelfiles und Artikellinks

(ID:43843638)