Suchen

Sind Sie bereit für die neuen Speicherarchitektur-Ökosysteme? Das Innovationspotenzial im Storagelayer ist immens

Autor / Redakteur: Nigel Edwards / Rainer Graefen

Bei HGST denkt man inzwischen über die Festplatte hinaus. Ob das Unternehmen tatsächlich die Flash-Fabric vorantreiben kann, ist für den Aussenstehenden schwer einschätzbar. Beim "aktiven Archiv" scheint der HDD-Hersteller allerdings zur treibenden Kraft werden zu wollen.

Firmen zum Thema

Nigel Edwards, Vice President, EMEA Sales and Channel Marketing bei HGST, einem Unternehmen von Western Digital
Nigel Edwards, Vice President, EMEA Sales and Channel Marketing bei HGST, einem Unternehmen von Western Digital
(HGST)

Die Datenbestände wachsen täglich – und das exponentiell. Laut IDC wird das digitale Universum – also die Daten, die wir jährlich erzeugen und kopieren – im Jahr 2020 die Größe von 44 Zettabyte erreichen. Das entspricht 44 Billionen Gigabyte.

Wie kann die Infrastruktur in den kommenden Jahren mit diesem unstillbaren Hunger nach Daten Schritt halten? Die kurze Antwort lautet: Optimierung.

Datenanalyse treibt Kapazitätsbedarf

Eine Ursache des rasanten Datenwachstums liegt in der gerade anbrechenden Ära der Datenanalytik, in der zur Unterstützung von kritischen Geschäftsentscheidungen riesige Datenmengen analysiert werden. Je mehr Daten analysiert werden, desto wertvollere Erkenntnisse können daraus gewonnen werden.

Die enormen Datenmengen, die Unternehmen sammeln und speichern, um gesetzliche Vorgaben zu erfüllen, sind eine weitere Ursache für das allgemeine Datenwachstum.

Der problemlose Zugriff auf extrem große Mengen an unstrukturierten Daten in den Archiven ist für die Analyse- oder Compliance-Zwecke schwierig. Die betroffenen Unternehmen benötigen daher eine optimierte Architektur für Datenspeichersysteme, die eine hohe Speicherdichte bzw. Kapazitäten im Petabyte-Bereich bieten und dabei leicht zugänglich für die davon abhängigen Anwendungen und umsetzbar für Unternehmen jeder Größe sind.

Mehr Kapazität pro Raumeinheit

Standardspeicherbausteine werden bereits jetzt optimiert. Laufwerke mit höherer Kapazität bei niedrigerem Stromverbrauch verbessern Speicher-Cluster, indem sie mehr Ressourcen bei gleichem Platzbedarf ermöglichen. Zusätzlich optimieren neue Technologien, wie hermetisch abgeschlossene heliumgefüllte Laufwerke, die Datenspeicherung im standardmäßigen 3,5-Zoll-Format.

Mit leichteren und energieeffizienteren Festplatten können Hersteller von Standard-Serverhardware auch die Speicherdichte bei ihren Gehäusen erhöhen, um softwaredefinierten Speicher zu unterstützen. Während früher 12–36 Laufwerke pro System typisch waren, sind heute Systeme mit 60 bis über 80 Laufwerken durchaus machbar.

Festplatte mit Ethernet-Schnittstelle

Außerdem ergeben sich durch Festplatten mit Ethernet-Schnittstellen jetzt neue Möglichkeiten, Software-Dienste für horizontal skalierende Speicherlösungen zu verteilen. Diese Architektur optimiert den Datenpfad so, dass Anwendungen näher am Speicherort der Daten laufen können.

Mithilfe einer offenen Architektur können Entwickler Ressourcen vorteilhaft nutzen, ohne ihre Anwendungen ändern zu müssen, wie es bei der Nutzung laufwerkspezifischer Ressourcen üblicherweise der Fall ist.

Durch die Nutzung von Ethernet erhalten Betreiber, die diese Entwicklung unterstützen, eine reibungslose Verbindung zu bestehenden Rechenzentrumsnetzen und können bestehende Automatisierungs- und Managementanwendungen nutzen. Eine offene Ethernet-Laufwerksarchitektur ermöglicht auch eine gemischte Nutzung von neuer Technologie und serverbasierten Installationen gängiger softwaredefinierter Speicherlösungen.

Funktionelle Updates werden einfacher realisierbar

Die Großen unter den bekannten Anbietern von Cloud-Diensten haben zwar damit begonnen, auf ihre Zwecke spezialisierte, hoch optimierte Hardware zu entwickeln, doch nur wenigen Rechenzentrumsanbietern stehen die entsprechenden Mitarbeiter zur Verfügung, um dies ebenfalls zu tun.

Mit den neuen, offenen und seit Kurzem auf dem Markt verfügbaren softwaredefinierten Speicheroptionen sind optimierte Architekturen für horizontale Skalierung deutlich leichter umsetzbar.

Optimierte Datenspeicherung betrifft nicht nur die Hardware: Auch die Speichersoftware bietet Optimierungsmöglichkeiten.

Mit diesen neuen Fortschritten bei der Software können Unternehmensrechenzentren die gleichen Vorteile bezüglich Investitions- und Betriebskosten erzielen, wie die großen Cloud-Unternehmen, ohne dass Ressourcen in gleichem Umfang erforderlich sind. Daher ist es nicht erstaunlich, dass Gartner kürzlich die Software-Investitionen von Rechenzentren zu den zehn wichtigsten strategischen Technologietrends für 2014 zählte.

Dank Software-defined wie die Großen arbeiten

Dank kommerziell unterstützter Open-Source-Initiativen, wie GlusterFS, Inktank Ceph Enterprise und SwiftStack für OpenStack Object Storage, dürfen wir mit softwaredefinierten Speichersystemen rechnen, die sich mit zahlreichen Einsatzmöglichkeiten den Weg von der Cloud in eine immer größere Zahl von Mainstream-Rechenzentren in Unternehmen bahnen werden.

Im Verlauf der nächsten 18 Monate ist mit einem Anstieg bei softwaredefinierten Speicherangeboten von Startup-Unternehmen zu rechnen, da immer mehr Rechenzentrumsbetreiber die Vorteile dieses Ansatzes erkennen. Die kommerzielle Unterstützung offener Speichersoftware wird es herkömmlichen IT-Abteilungen ermöglichen, die gleichen Lösungsansätze zu verfolgen, die früher nur den größten Betreibern vorbehalten waren.

Bereits heute präsentieren Unternehmen auf Konferenzen beispielhafte Fallstudien, darunter Service Provider, größere Unternehmen und auch junge Firmen, die von softwaredefinierten Speicherlösungen profitieren.

Storage im Rampenlicht

Traditionell waren bisher Server und Netzwerke die Stars im Rechenzentrum. Das exponentiell anwachsende Volumen, die Geschwindigkeit, der Wert und die Langlebigkeit von Daten lassen jetzt jedoch eine Ära beginnen, in der die Datenspeicherung im Rechenzentrum ins Rampenlicht tritt. Daten sind die neue Währung für das Erkennen von wirtschaftlichen Zusammenhängen: Sie müssen gespeichert werden und für ein Unternehmen problemlos zugänglich sein, um optimalen Nutzen aus ihnen ziehen zu können.

Rechenzentrumsarchitekten und Entwickler von Speichersystemen, die mit der nächsten Generation von Big-Data-Verarbeitung, Analysen, Rechercheabfragen und anderen Anwendungen, die eine langfristige Speicherung aktiver Daten erfordern, Schritt halten möchten, müssen verstehen, wie offene softwaredefinierte Speicherlösungen das neue Speicherarchitektur-Ökosystem (vorteilhaft) beeinflussen werden.

(ID:43033171)