Definition

Was ist NVMe over Fabrics?

| Autor / Redakteur: Walter Schadhauser / Tina Billo

Der NVMe-Transportmechanismus zeigt, wie die diversen Fabrics miteinander kommunizieren (könnten).
Der NVMe-Transportmechanismus zeigt, wie die diversen Fabrics miteinander kommunizieren (könnten). (Bild: NVMexpress.org)

Die Leistung von SSDs wird durch die Bandbreite klassischer Festplattenschnittstellen und zugehöriger Software ausgebremst. Abhilfe schafft das latenzarme NVMe-Protokoll. Dessen auf direkt angebundene Flash-Speicher beschränkten Einsatz hebt die Variante NVMe over Fabrics auf, mittels der sich Daten über Ethernet-, Fibre-Channel- oder Infiniband-Netzwerke übertragen lassen.

Ein kurzer Blick zurück. SCSI, das Small Computer Systems Interface, ist das altgediente Übertragungsprotokoll für professionelle Speichersysteme. Die modernisierten Nachfolger sind Fibre Channel (FC) und Serial Attached SCSI (SAS). In seiner Internetvariante iSCSI kann man Remote-Speichersysteme über Ethernet-Netzwerke ansprechen. Leider verursacht iSCSI durch die sogenannte Enkapsulierung in das TCP/IP-Protokoll viel Paket-Overhead und damit eine geringere Transportleistung. Ein netzwerkfähiges Protokoll für große Speicherfarmen - Storage Area Networks oder kurz SANs - kam mit Fibre Channel auf den Markt, für dessen Nutzung allerdings eigenständiges FC-Equipment nötig ist.

NVMe wird alle bisherigen Speicherprotokolle auf Dauer ablösen und ist die Transportsoftware für den direkten lokalen Anschluss von SSDs, da es sehr kompakt strukturiert ist und alleine dadurch die Transportleistung um zehn bis 15 Prozent verbessern soll. Für eine Übergangszeit ist ein Investitionsschutz vorgesehen, der den SCSI-Transportmechanismus unterstützen wird. Bandbreiten bis 100 Gbit/s sollen in der aktuellen Version nutzbar sein.

Neues Ziel: Multi-Fabric-Fähigkeit

In der netzwerkfähigen NVMe-oF-Variante sind die Fabric und die NVMe-Controller die entscheidenden Bindeglieder zwischen tausenden NVMe-Hosts und -Subsystemen. Auch in der NVMe-Fabric hat die gemeinsame Nutzung der Ressourcen oberste Priorität. Damit das bei einer Vielzahl von Host und Clients auch gelingt, gibt es ein Multi-Queue-Modell, das getrennte Auftrags- und Erledigt-Warteschlangen vorsieht, die circa 6.5000 Aufträge abarbeiten können.

Jede Verbindung vom Host über Fabric und Controller zum NVMe-Speichersubsystem ist durch Multipath-Fähigkeit physisch und logisch ausfallsicher ausgelegt. Das Speichersubsystem wird jedoch nicht wie eine Festplatte angesteuert, sondern direkt als Namespace und ist damit beliebig verschiebbar. Die im Vergleich mit SCSI sehr große Zahl an Warteschlangen sorgt dafür, dass das Gesamtsystem gut skalieren kann. Sollte trotzdem ein Auftrag im vorgesehenen Zeitrahmen nicht ausführbar sein, dann lässt sich das Kommando als "Out of Order" in einen Haltezustand versetzen.

Wie schon bei iSCSI wird der NVMe-Transport so im Transportmedium verkapselt, dass die wichtigen Fabric-Transportlayer wie PCIe, Fibre Channel und Infiniband/RoCE/ iWarp mit ihren spezifischen Kommandos genutzt werden können. Eine Bridge-Funktion soll letztlich Multi-Fabric-Datenmigrationen ermöglichen. Konventionelle Windows-Server sollen per iSCSI, SMB3 und FC, Linux-Hosts dementsprechend mit iSCSI, iSER, SRP oder FC mit dem Speichersystem kommunizieren. Höchste Geschwindigkeiten sind allerdings bei einem nativen NVMe-oF-Transport vom Host zur Speicher-SSD zu erwarten.

Der Masterplan

Die Pläne für NVMe und das Netzwerk-Pendant sind hochgesteckt. Angesichts der Entwicklungen im Halbleiterspeicherbereich geht die Industrie davon aus, dass die Latenzzeiten um den Faktor 10 und mehr abnehmen werden. Der Speicher als langjähriger Flaschenhalsbesitzer reicht damit den Schwarzen Peter an das Netzwerk weiter.

Schon NVMe for PCIe soll zeigen, dass sich Standardisierung lohnt, NVMe over Fabrics soll dann den Beweis antreten, dass Interoperabilität tatsächlich möglich ist. Doch der Weg zu einem konsistenten Speichernetzwerk mit unterschiedlichen Fabric-Typen dürfte noch zahlreiche Stolpersteine beinhalten. Schon in der Vergangenheit nahm die Storage-Industrie den Mund nicht nur mit ILM (Information Lifecycle Management) und SMIS (Storage Management Interface Specification) übervoll.

Netzwerk-Konvergenz v2.0?

NVMe over Fabric begeistert die Marketingabteilungen großer Storage-Hersteller. Dreiviertel der spezialisierten Netzwerkadapter sollen Ethernet-fähig sein. Protokolle wie RoCEV2 oder iWARP sollen dann den Datenverkehr auf die Ethernet-Leitungen bringen.

Manch einen wird das an den Versuch erinnern, Speicher- und Datenverkehr mittels des Protokolls FC over Ethernet (FCoE) zusammenzubringen. Netzwerk-Konvergenz stand damals auf der Agenda. Das war 2007. Der Versuch scheiterte aufgrund der deterministischen Notwendigkeiten des Transports von Speicherdaten, die sich trotz vieler Mühen nicht mit dem TCP/IP-Protokollstack in Einklang bringen ließen.

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45620522 / Definitionen)