Die neue Rechenzentrumsstruktur

Vom Flash in die Cloud

| Autor / Redakteur: Stefaan Vervaet* / Dr. Jürgen Ehneß

Schnelle und kostengünstig: Stefaan Vervaet von WD empfiehlt eine Flash-to-Cloud-Architektur.
Schnelle und kostengünstig: Stefaan Vervaet von WD empfiehlt eine Flash-to-Cloud-Architektur. (Bild: ©vectorfusionart - stock.adobe.com)

Viele Unternehmen setzen auf eine Flash-to-Cloud-Architektur, um eine schnelle und kostengünstige IT-Umgebung zu implementieren. Der folgende Beitrag beschäftigt sich damit, wie eine solche Architektur aussehen kann und welche Anwendungen von diesem Ansatz profitieren.

Die Infrastruktur des Rechenzentrums hat sich zu einem Polyuniversum entwickelt, das mehrere Benutzer, Anwendungen und Workloads bedient und gleichzeitig als Heimat für eine Vielzahl von Datensätzen und Diensten dient. Diese neuen Anforderungen bringen Herausforderungen hinsichtlich der Kosten und der Bereitstellung mit sich, die zwangsläufig die Einführung schnellerer und besser skalierbarer Speicherlösungen vorantreiben.

Geschwindigkeit der Anpassung wird stark von Kosten beeinflusst

Die Speichernutzung wird immer vielfältiger. Die Herausforderung besteht darin, wie wir die Möglichkeiten für aktuelle und zukünftige Workloads implementieren und freisetzen. Wie bei jeder neuen Medientechnologie wird die Geschwindigkeit, mit der diese Technologie umgesetzt wird, in hohem Maße von den damit verbundenen Kosten beeinflusst. Das ist umso mehr der Fall, wenn auch das dazugehörige Ökosystem an Anwendungen mitberücksichtigt werden muss. Unternehmen erleben den Mehrwert von NVMe (Non-Volatile Memory Express) und Cloud-Technologien aus erster Hand und passen beides nahtlos ihrem Workflow an. Einige Unternehmen konzentrieren sich bei ihrer Systemumgebung dabei ausschließlich auf einen Flash-to-Cloud-Ansatz.

Auf einer Seite NVMe, auf der anderen Seite die Cloud

In den vergangenen Jahren hat Flash seinen Nutzen unter Beweis gestellt, wenn es um die Bereitstellung eines höheren Datendurchsatzes, einer geringeren Latenzzeit und einer effizienten Energienutzung ging. Darüber hinaus sind die Kosten der Flash-Technologie gesunken, während gleichzeitig die Dichte und die Haltbarkeit aufgrund von SLC, MLC, TLC sowie aktuell QLC gestiegen sind. Als Folge dessen haben Unternehmen damit begonnen, Flash im gesamten Rechenzentrum einzusetzen. Gleichzeitig wurde eine Bewertung darüber vorgenommen, wie Flash in die Infrastruktur integriert wurde.

Eine wichtige Erkenntnis aus der Flash-Technologie ist, dass die Protokollschnittstelle NVMe als effiziente Architekturmöglichkeit und zur Bereitstellung höherer Leistungsmerkmale im Vergleich zu traditionellen SATA- und SAS-Schnittstellen entstanden ist. (Lesen Sie dazu auch unseren NVMe-Ressourcen-Guide, wenn Sie mit dieser Technologie oder deren Einsatz nicht vertraut sind.)

Die Cloud hat hingegen vor einigen Jahren die Lücke hinsichtlich der Akzeptanz überwunden und den Umgang mit IT-Architekturen revolutioniert. Während die Public Cloud heute in gewisser Weise von den meisten Unternehmen verwendet wird, ist auch ein Trend zur Rückführung bestimmter Workloads zu erkennen. Die meisten Unternehmen entscheiden sich für eine hybride Architektur, die sowohl Public- als auch Private-Cloud-Modelle nutzt. (Eine Übersicht liefert eine Zusammenfassung, welche Workloads in die Public Cloud im Vergleich zur Private-Cloud-Konfiguration passen.)

Das kostet Storage in der Google Cloud

Die Cloud-Storage-Abrechnungsmodelle von Amazon, Google, Azure, Telekom und OVH im Vergleich – Teil 1

Das kostet Storage in der Google Cloud

26.08.19 - Storage-Angebote aus der Cloud haben die verschiedensten Ausformungen. Leider auch die Abrechnungsmodelle dafür – gerne kochen die vielen Anbieter ein eigenes Süppchen. Abgerechnet wird mal nach Stunden oder sogar Sekunden, pro Nutzer oder pro übertragenem Gigabyte. Wir haben uns die Abrechnungsmodelle vorzugsweise für das angesagte Object-Storage genauer angesehen und vergleichen die Speicherangebote von AWS, Google Cloud, Azure, Telekom sowie OVH. lesen

Anwendungen sind wegweisend – vom Flash bis zur Cloud

Im Rechenzentrum zeichnen sich zwei spezielle Workflows dadurch aus, dass sie die Vorteile der Kombination aus NVMe- und Cloud-Speicher optimal nutzen:

1. Datensicherheit

Snapshot-Technologien gehören seit langem zum Standard, um ein schnelleres Recovery Time Objective (RTO) für Datei- und Block-Arrays zu ermöglichen. Da immer mehr Anwendungen in virtuellen Umgebungen laufen, verfügen Anbieter von Backup-Software nun über direkte API-Integrationen mit Flash-Arrays, um diese schnellen Snaps zu nutzen. NVMe-fähige Arrays erhöhen die Geschwindigkeit, mit der diese Aufnahmen gemacht werden, und reduzieren die Auswirkungen eines Application Stuns.

Darüber hinaus bieten NVMe-Lösungen, wie die NVMe-Serie (N-Serie) von Intelliflash, zweimal mehr IOPS pro CPU, was die Software-Lizenzkosten von Datenbank- und Virtualisierungs-Stacks reduziert. In Kombination mit integrierten Deduplizierungs- und Komprimierungstechniken kann das den gesamten Daten-Footprint um bis zu 80 Prozent reduzieren.

Obwohl Snaps gut für die kurzfristige Speicherung geeignet sind, skalieren sie nicht mit Langzeit- und Petabyte-Umgebungen. Um die Kosten zu senken, haben Backup-Anbieter weitgehend Cloud-Targets als Repositories für die langfristige Aufbewahrung übernommen.

Western Digital hat sich mit Anbietern wie Veeam und Rubrik zusammengeschlossen, um lokale Cloud-Speicher zu unterstützen und Backup-Images sowie Langzeitdaten nahtlos auf dem objektbasierten Activescale-System zu speichern. Activescale bietet eine Haltbarkeit von bis zu 17×9’s bei 70 Prozent niedrigeren Kosten im Vergleich zu traditionellen Dateiservern. Dadurch wird das Speichern mehrerer Kopien mit 3GEO-Schutz überflüssig. Als zusätzliche Sicherheit können Kunden dennoch eine Kopie in der Public Cloud speichern.

2. Datenanalysen, Maschinelles Lernen und Künstliche Intelligenz

Im Automobilbereich, der EDA und der Forschung gehören Echtzeitdatenanalysen und Maschinelles Lernen (ML) bereits zur täglichen Arbeit. Im Mittelpunkt dieser neuen Workloads steht die zunehmende Akzeptanz von In-Memory-Datenbanken und Cluster-Datenbanken, die unmittelbarer von Low-Latency-Speicher profitieren.

Unternehmensanalysen

In den Enterprise-Analyse-Stacks sehen wir eine Konsolidierung nicht nur auf der Speicherebene, sondern auch in der Designarchitektur dieser Analyseplattformen. So hat beispielsweise der neueste Smartstore-Stack von Splunk seine Architektur von einem dreistufigen Ansatz auf eine zweistufige Architektur umgestellt. Dabei wurden ein Tier für Leistung (Flash) und ein Tier für Kosten (Cloud) optimiert.

10 Cloud-Speicher im Vergleich – Teil 1

Wer ist der günstigste? Wer ist der sicherste?

10 Cloud-Speicher im Vergleich – Teil 1

08.07.19 - Beim Ablegen privater oder unternehmensrelevanter Daten in der Cloud geht es vorrangig um den Preis; darüber hinaus stellt sich die Frage nach der Sicherheit der Daten. Außerdem spielt bei der Wahl des Anbieters auch eine Rolle, welche weiteren Features die jeweilige Plattform offeriert. Wir untersuchen das Angebot der fünf wichtigsten Cloud-Anbieter mit Servern ausschließlich in Deutschland. lesen

Wir sehen Konsolidierung nicht nur in der Speicherschicht, sondern auch in der Designarchitektur von Analyseplattformen. Das bietet das Beste aus beiden Welten: eine erste Welt, in der Smart-Caching-Techniken die Datenplatzierung näher an den „Indexern“ optimieren, und eine zweite Welt, in der Cloud-Speicher wie Activescale Daten analysieren und zur langfristigen Aufbewahrung speichern. In den Analyseverfahren führen mehr Daten im Laufe der Zeit in der Regel zu besseren Erkenntnissen. (Hier erfahren Sie mehr über den Splunk Smartstore und wie Splunk Daten von Flash bis Cloud in seiner neuen Architektur speichert.) Splunk hat in seinem aktuellen Bericht „The State of Dark Data Report“ aufgezeigt, dass 76 Prozent der Befragten der Meinung sind, dass „das Unternehmen mit den meisten Daten gewinnen wird“. Der Schlüssel zum Erfolg liegt darin, den effizientesten Weg zu finden, um Ihre Daten zu speichern und maßstabsgerecht zugänglich zu halten.

Big-Data-Workloads und Maschinelles Lernen

In großen Daten-Workloads, bei denen die Batch-Analyse hauptsächlich über einen Apache-Hadoop-Stack ausgeführt wird, sehen wir die Einführung optimierter S3-Protokolle (S3A). Diese können die Daten effizienter zwischen einem schnellen Cache und einer Scale-Out-Cloud-Ebene platzieren. Im WD-Blog finden sie einen ausführlichen Einblick darüber, wie dies mittels Hadoop umgesetzt wird.

In den Daten-Pipelines von maschinellen Lernanwendungen, in denen Hardware-Beschleuniger wie GPUs oder FPGAs weit verbreitet sind, wird eine Kombination aus geringer Latenz und hohem Datendurchsatz benötigt. Speicherintensive GPUs verbrauchen problemlos 5 Gigabyte (GB) an Daten pro Sekunde. Um den besten Return on Investment (ROI) aus hohen Investitionen zu erzielen, sollte sichergestellt werden, dass die volle Kapazität dieser Beschleuniger genutzt wird.

Um den ROI der Investitionen in maschinelles Lernen zu maximieren, müssen die GPUs voll ausgelastet werden.

Die Herausforderung besteht darin, dass in heutigen Systemumgebungen nur sehr wenige Lösungen diese Leistungszahlen in einem einzigen System skalieren können. Wenn man bedenkt, dass die Datensätze für das Trainieren solcher ML-Modelle leicht in die Hunderte von Terabyte (TB) und sogar Petabyte (PB) gehen, ist das nicht nur eine Herausforderung hinsichtlich der Leistung, sondern auch eine Kostenfrage. Es ist nicht verwunderlich, dass wir ein Ökosystem aus Scale-Out-Datei- und Block-Stacks (wie unsere Partner bei Weka.IO und Excelero) sehen, die eine extrem schnelle NVMe-Speicherebene (Tier) mit einer kostengünstigen Scale-Out-Objekt-Ebene (Tier) kombinieren.

*Der Autor: Stefaan Vervaet, Senior Director of Solutions Marketing and Strategic Alliances bei Western Digital.

Im Fokus: Flash-Storage

Lesen Sie hier auch die weiteren Beiträge zu unserem Schwerpunktthema Im Fokus: Flash-Storage.

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 46057097 / Halbleiterspeicher)