Suchen

Sind Sie bereit für die neuen Speicherarchitektur-Ökosysteme? Das Innovationspotenzial im Storagelayer ist immens

| Autor / Redakteur: Nigel Edwards / Rainer Graefen

Bei HGST denkt man inzwischen über die Festplatte hinaus. Ob das Unternehmen tatsächlich die Flash-Fabric vorantreiben kann, ist für den Aussenstehenden schwer einschätzbar. Beim "aktiven Archiv" scheint der HDD-Hersteller allerdings zur treibenden Kraft werden zu wollen.

Nigel Edwards, Vice President, EMEA Sales and Channel Marketing bei HGST, einem Unternehmen von Western Digital
Nigel Edwards, Vice President, EMEA Sales and Channel Marketing bei HGST, einem Unternehmen von Western Digital
(HGST)

Die Datenbestände wachsen täglich – und das exponentiell. Laut IDC wird das digitale Universum – also die Daten, die wir jährlich erzeugen und kopieren – im Jahr 2020 die Größe von 44 Zettabyte erreichen. Das entspricht 44 Billionen Gigabyte.

Wie kann die Infrastruktur in den kommenden Jahren mit diesem unstillbaren Hunger nach Daten Schritt halten? Die kurze Antwort lautet: Optimierung.

Datenanalyse treibt Kapazitätsbedarf

Eine Ursache des rasanten Datenwachstums liegt in der gerade anbrechenden Ära der Datenanalytik, in der zur Unterstützung von kritischen Geschäftsentscheidungen riesige Datenmengen analysiert werden. Je mehr Daten analysiert werden, desto wertvollere Erkenntnisse können daraus gewonnen werden.

Die enormen Datenmengen, die Unternehmen sammeln und speichern, um gesetzliche Vorgaben zu erfüllen, sind eine weitere Ursache für das allgemeine Datenwachstum.

Der problemlose Zugriff auf extrem große Mengen an unstrukturierten Daten in den Archiven ist für die Analyse- oder Compliance-Zwecke schwierig. Die betroffenen Unternehmen benötigen daher eine optimierte Architektur für Datenspeichersysteme, die eine hohe Speicherdichte bzw. Kapazitäten im Petabyte-Bereich bieten und dabei leicht zugänglich für die davon abhängigen Anwendungen und umsetzbar für Unternehmen jeder Größe sind.

Mehr Kapazität pro Raumeinheit

Standardspeicherbausteine werden bereits jetzt optimiert. Laufwerke mit höherer Kapazität bei niedrigerem Stromverbrauch verbessern Speicher-Cluster, indem sie mehr Ressourcen bei gleichem Platzbedarf ermöglichen. Zusätzlich optimieren neue Technologien, wie hermetisch abgeschlossene heliumgefüllte Laufwerke, die Datenspeicherung im standardmäßigen 3,5-Zoll-Format.

Mit leichteren und energieeffizienteren Festplatten können Hersteller von Standard-Serverhardware auch die Speicherdichte bei ihren Gehäusen erhöhen, um softwaredefinierten Speicher zu unterstützen. Während früher 12–36 Laufwerke pro System typisch waren, sind heute Systeme mit 60 bis über 80 Laufwerken durchaus machbar.

Festplatte mit Ethernet-Schnittstelle

Außerdem ergeben sich durch Festplatten mit Ethernet-Schnittstellen jetzt neue Möglichkeiten, Software-Dienste für horizontal skalierende Speicherlösungen zu verteilen. Diese Architektur optimiert den Datenpfad so, dass Anwendungen näher am Speicherort der Daten laufen können.

Mithilfe einer offenen Architektur können Entwickler Ressourcen vorteilhaft nutzen, ohne ihre Anwendungen ändern zu müssen, wie es bei der Nutzung laufwerkspezifischer Ressourcen üblicherweise der Fall ist.

Durch die Nutzung von Ethernet erhalten Betreiber, die diese Entwicklung unterstützen, eine reibungslose Verbindung zu bestehenden Rechenzentrumsnetzen und können bestehende Automatisierungs- und Managementanwendungen nutzen. Eine offene Ethernet-Laufwerksarchitektur ermöglicht auch eine gemischte Nutzung von neuer Technologie und serverbasierten Installationen gängiger softwaredefinierter Speicherlösungen.

Funktionelle Updates werden einfacher realisierbar

Die Großen unter den bekannten Anbietern von Cloud-Diensten haben zwar damit begonnen, auf ihre Zwecke spezialisierte, hoch optimierte Hardware zu entwickeln, doch nur wenigen Rechenzentrumsanbietern stehen die entsprechenden Mitarbeiter zur Verfügung, um dies ebenfalls zu tun.

(ID:43033171)