Suchen

Gesponsert

Mit dem richtigen Ansatz zu geringer Latenz und weniger Kosten Der Vergleich der Speicher-Technologien: Optane versus NAND

Daten sind das neue Öl. Um im Wettbewerb zu bestehen, müssen Unternehmen Daten schnell und kosteneffizient abrufen und verarbeiten können. Sie erzielen damit geschäftliche Erkenntnisse und rüsten sich für neue Einsatzszenarien rund um Maschinelles Lernen (ML) und künstliche Intelligenz (KI). Die dafür benötigten Arbeits- und Massenspeicher sind mit hohen Kosten und bei der Wahl der falschen Technik mit eingeschränkter Kapazität und Leistungseinschränkungen verbunden.

Gesponsert von

Der Vergleich der Speicher-Technologien: Optane versus NAND
Der Vergleich der Speicher-Technologien: Optane versus NAND
(Bild: Alexander Limbach@AdobeStock)

Unternehmen stehen als mögliche Infrastrukturkomponenten DRAM, Flash-Speicher (NAND) und rotierende Festplatten zur Verfügung – jede Technik weist Stärken und Schwächen auf. Immer geht es jedoch darum, die beunruhigend schnell wachsende Menge an Daten schnell abzulegen und gegebenenfalls wieder genauso schnell abzurufen. Die Wahl der passenden Technik hat dabei nicht nur auf Zugriffszeiten gehörigen Einfluss, sondern in der Folge auch auf die Performance von Anwendungen. Für IT-Teams besteht die Schwierigkeit darin, ein Gleichgewicht zwischen ausreichend Leistung auf der einen Seite und Effizienz und Kosten auf der anderen Seite zu finden.

Üblicherweise müssen die Teams den Spagat zwischen großem Random-Access Memory für häufig aufgerufene Daten von Anwendungen einerseits und einer verbesserten Leistung für ihre lesezentrierten Workloads andererseits aushalten, was häufig zu zusätzlichen Kosten für Softwarelizenzierung und kostspieligen Arbeitsspeicher führen. Im Folgenden betrachten wir mit Intel® Optane™ SSDs eine Technologie, die für Unternehmen wahrscheinlich die vernünftigste Lösung darstellt, da sie kostengünstig und zugleich leistungsstark ist. Im zweiten Teil des Beitrages lesen Sie, wie mit diese mit Pure Storage praktisch umgesetzt werden kann.

Die Warteschlangentiefe bestimmt die SSD-Leistung

Erfahrungsgemäß kommen in modernen Szenarien vorzugsweise verschiedene Arten von Solid State Drives (SSDs) zum Einsatz. SSD-Leistungsspezifikationen listen den Durchsatz (auch als Bandbreite bezeichnet) sowohl für Lese- als auch für Schreibvorgänge sowie auch die Anzahl der maximalen Zugriffe pro Sekunde - allgemein als Input-/Output-Vorgänge pro Sekunde (IOPS) bezeichnet - auf. Eine zentrale Rolle für die SSD-Leistung spielt aber nicht zuletzt die Warteschlangentiefe (QD). Das ist die Anzahl der ausstehenden Zugriffe auf einen Workload.

Die meisten Anwendungen weisen eine relativ niedrige QD auf, NAND-SSDs benötigen jedoch eine hohe QD, um die volle Leistung zu erzielen. Das kommt daher, weil jede NAND-SSD aus vielen integrierten NAND-Schaltungen besteht. Die Latenz für das Lesen von Daten wird von einer integrierten NAND-Schaltung bestimmt, weswegen der Leerlaufdurchschnitt moderner NAND-SSDs in der Regel etwa 80 Mikrosekunden (µs) beträgt. Diese relativ hohe Latenz macht eine niedrige QD-Leistung zur Herausforderung für NAND-SSDs.

Darüber hinaus sogt der sogenannte Yahtzee-Effekt dafür, dass eine höhere QD erforderlich ist, um die maximale NAND-SSD-Leistung zu erzielen: Da eine integrierte NAND-Schaltung (ICs) jeweils nur einen bestimmten Lesevorgang durchführen kann, werden mit steigenden Arbeitslasten immer mehr ICs benötigt, um Kollisionen bei den Lesevorgängen und steigende Wartezeiten zu vermeiden. In der Folge nimmt die NAND-SSD-Leistung langsamer zu als die QD – ein unter Kostengesichtspunkten wenig wünschenswerter Effekt.

Was Optane besser kann als NAND SSDs

Intel® Optane™ SSDs leiden aufgrund ihres leistungsfähigeren Speichers und ihrer SSD-Architektur nicht unter dem Yahtzee-Effekt. Sie bieten mit ihrer geringen Latenz eine hohe Leistung bei niedriger QD. Im Gegensatz zu NAND SSDs sind Intel Optane SSDs nämlich so konzipiert, dass sie eine konsistente niedrige Latenz für eine SSD von lediglich etwa 8 µs offerieren.

Adressbasierte Kollisionen wie bei NAND-SSDs sind bei Intel® Optane™ SSDs ausgeschlossen, sie liefern Spitzenleistung auch für sehr kleine QDs, wie sie häufig bei Geschäftsanwendungen zu finden sind. Untersuchungen belegen, dass eine Intel® Optane™ SSD (Intel® Optane™ SSD P4800x) vier- bis fünfmal so schnell ist wie eine Intel® NAND SSD (Intel® SSD P4610).

Throughput Performance at Lower Queue Depth
Throughput Performance at Lower Queue Depth
(Bild: Intel)

Ohne in die revolutionäre Technik des Optane tiefer einzusteigen kann damit gesagt werden, dass eine Intel® Optane™ SSD für die QDs von alltäglichen Anwendungen einen höheren Durchsatz und gleichzeitig eine geringere Latenz bietet als handelsübliche NAND-SSDs.

Bonusvorteil: Einfacherer Code auf der Anwendungsebene

Entwickler bemühen sich seit Jahren, den Anwendungsdurchsatz trotz der hohen Latenzen von NAND-SSDs zu erhöhen. Sie haben viel und komplexen Code geschrieben, um die Wartezeiten der Übertragung von Daten vom und zum Speicher zu verkürzen. Mit dem Einsatz von Intel® Optane™ SSDs wird diese Software überflüssig.

Das belegt nicht zuletzt der Datenbank-Benchmark TPC-C, bei dem sich alles um den Durchsatz, also die Transaktionen pro Sekunde (TPS), dreht. Eine Reduktion der Anzahl der ausstehenden Transaktionen führt zu einem starken Leistungsgewinn auf Anwendungsebene. Zusätzlich lässt sie den CPU-Cache effektiver arbeiten, da die Größe des Arbeitssatzes der Anwendung reduziert wurde. Einen ganz ähnlichen Effekt können wir bei der Auslagerung des virtuellen Speichers durch ein Betriebssystems beobachten. Daher besteht der Bonusvorteil von Intel® Optane™ SSDs nicht zuletzt in einer Reduzierung der Codekomplexität und in kleineren Arbeitssätzen, was wiederum die Systemleistung weiter steigen lässt.

Anwendungsbeispiel Pure Storage System: 50% weniger Lesedienstlatenz

Ein Blick in die reale Welt bestätigt die Ergebnisse des Benchmarks: Speicherspezialist Pure Storage erklärt in der Folge herkömmliche DRAM als veralteten Ansatz. Kostengünstiger und skalierbarer seien Intel® Optane™-Einheiten mit zwei Ports, als da wären D4800X-SSD in Pure Storage FlashArray/X70- und FlashArray/X90-Produkten. FlashArray//X ist das weltweit erste Ende-zu-Ende-NVMe-All-Flash Array mit Enterprise Datendiensten und kann in Kombination mit der D4800X-SSD Antwortzeiten um bis zu 50 Prozent reduzieren, so Pure.

Ergänzendes zum Thema
Key Features Intel® Optane™ DC P4800X/P4801X Serie:
  • Hoher Durchsatz für extreme Leistung
  • Geringe Latenzzeit für hohe Reaktionsfähigkeit unter Last
  • Extrem hohe Belastbarkeit

Denn die kombinierte Lösung kann die Größe des Gesamtspeichers sowie die des Speicherlesecaches erhöhen. Dafür bauen Intels Optane SSDs auf einer neuen Speichertechnologie auf, die größere Datenmengen mit konsistenter, niedriger Latenz näher am Prozessor hält, dem Pure Storage DirectMemory Cache. Er ist eine Kombination aus optimierter Software und Zwischenspeicher, die die Leistungslücke zwischen DRAM- und Flash-SSDs überbrückt.

Wenn DirectMemory Cache als Teil eines Pure FlashArray/X-Systems aktiviert ist, verweist das Purity-Betriebssystem automatisch Lesevorgänge von Flash-Medien auf integrierte DirectMemory-Module (DMM). So werden große Speicherpools, schnelles Caching und schnelles Storage möglich, was Anwendungen beschleunigt und Transaktionskosten für latenzempfindliche Workloads senkt.

DMMs bieten auf diese Weise einen viel größeren Lesecache, als das mit DRAM möglich wäre, was sich wieder positiv auf die wirtschaftlichen Gesichtspunkte auswirkt. Ein größerer Lesecache erhöht die Wahrscheinlichkeit von Cachetreffern, wodurch die Anwendungsleistung erhöht wird. Anwendungen müssen nicht warten, bis Informationen aus dem zentralen Speicher gelesen werden.

All die Daten werden weiterhin dauerhaft auf DirectFlash-Softwaremodulen im Pure Storage Flash-Array verwaltet. DMMs können einfach und unterbrechungsfrei als Add-Ons in FlashArray/X70R2- und FlashArray/X90R2-Produkte eingefügt werden. Mit Pure Storage DMMs lässt sich unterm Strich Kapazität für das Zwischenspeichern von wiederholt aufgerufenen Daten hinzufügen, ohne teure DRAMs kaufen zu müssen.

Zwei Ports speziell für Hochleistungs-Workloads

SSD D4800X und DirectMemory Cache mit zwei Ports wurden speziell für Hochleistungs-Workloads entwickelt. Diese umfassen nicht nur geschäftskritische Datenbanken, sondern auch Cloud-native Anwendungen wie MongoDB, Cassandra und MariaDB der nächsten Generation. Solche Scale-Out-Anwendungen sind häufig sehr anspruchsvolle Workloads.

Diese Workloads, die einen großen Teil ihrer Zeit mit dem Lesen heißer Daten verbringen, profitieren am meisten vom SSD D4800X und dem DirectMemory Cache. Der zusätzliche Lesecache kann eine Reduzierung der Lesedienstlatenz um bis zu 50 Prozent ermöglichen. Workloads wie SAP HANA lassen sich mithilfe der Datenebene SAP HANA Native Storage Extension (NSE) und des DirectMemory-Cachse auf eine Leistung von bis zu 90 Prozent von DRAM-Speichern bringen – bei nur einem Drittel der Kosten.

Darüber hinaus verspricht ein gemeinsam genutzter Speicher Verbesserungen hinsichtlich Effizienz, Ausfallsicherheit und bestimmter Funktionen wie Snapshots, Replikation und Datenschutz.

Fazit: Anspruchsvolle Anwendungen erhalten mit DirectMemory Cache einen Schub

Um die Kapazität des Lesecaches im Speicher zu erhöhen, ist kein in-Host-DRAM erforderlich. Intel Optane SSDs bieten eine deutliche Steigerung der Leseleistung für Pure DirectMemory Cache. Mit den Pure Storage FlashArray/X70R2- und FlashArray/X90R2-Produkten können Kunden die DMM-Komponente einfach und unterbrechungsfrei hinzufügen, um zusätzlichen Lesecache bereitzustellen. Dies führt in der Regel zu reduzierten Laufzeiten und allgemeinen Leistungsverbesserungen für multi-pass Workloads wie geschäftskritische Datenbanken, die auf Low-Latency-Speicherbereichsnetzwerken (SANs) ausgeführt werden.

Mit der Intel® Optane™ Technologie können Rechenzentren grundsätzlich kostengünstiger größere Datensätze auswerten und so neue Erkenntnisse aus großen Speicherpools gewinnen. Intel® Optane™ DC SSDs helfen, Engpässe im Rechenzentrums-Storage zu beseitigen und ermöglichen größere, erschwinglichere Datensätze. Sie können Anwendungen beschleunigen, Transaktionskosten für latenzempfindliche Workloads senken und die Effizienz und Leistung des Rechenzentrums insgesamt verbessern.

Advertorial - Was ist das?

Über Advertorials bieten wir Unternehmen die Möglichkeit relevante Informationen für unsere Nutzer zu publizieren. Gemeinsam mit dem Unternehmen erarbeiten wir die Inhalte des Advertorials und legen dabei großen Wert auf die thematische Relevanz für unsere Zielgruppe. Die Inhalte des Advertorials spiegeln dabei aber nicht unbedingt die Meinung der Redaktion wider.

(ID:46969322)