Definition Was ist NVMe over Fabrics (NVMe oF)?
Die Leistung von SSDs wird durch die Bandbreite klassischer Festplattenschnittstellen und zugehöriger Software ausgebremst. Abhilfe schafft das latenzarme NVMe-Protokoll (Non-Volatile Memory Express). Dessen auf direkt angebundene Flash-Speicher beschränkten Einsatz hebt die Variante NVMe over Fabrics (zuweilen auch: NVMe over Fabric) auf, mit deren Hilfe sich Daten über Ethernet-, Fibre-Channel- oder Infiniband-Netzwerke übertragen lassen.
Anbieter zum Thema

Ein kurzer Blick zurück. SCSI, das Small Computer Systems Interface, ist das altgediente Übertragungsprotokoll für professionelle Speichersysteme. Die modernisierten Nachfolger sind Fibre Channel (FC) und Serial Attached SCSI (SAS). In seiner Internetvariante iSCSI (internet Small Computer System Interface) kann man Remote-Speichersysteme über Ethernet-Netzwerke ansprechen. Leider verursacht iSCSI durch die sogenannte Enkapsulierung in das TCP/IP-Protokoll viel Paket-Overhead und damit eine geringere Transportleistung. Ein netzwerkfähiges Protokoll für große Speicherfarmen – Storage Area Networks oder kurz SANs – kam mit Fibre Channel (FC) auf den Markt, für dessen Nutzung allerdings eigenständiges FC-Equipment nötig ist.
NVMe (Non-Volatile Memory Express) wird alle bisherigen Speicherprotokolle auf Dauer ablösen und ist die Transport-Software für den direkten lokalen Anschluss von SSDs, da es sehr kompakt strukturiert ist und alleine dadurch die Transportleistung um zehn bis 15 Prozent verbessern soll. Für eine Übergangszeit ist ein Investitionsschutz vorgesehen, der den SCSI-Transportmechanismus unterstützen wird. Bandbreiten bis 100 Gbit/s sollen in der aktuellen Version nutzbar sein.
Neues Ziel: Multi-Fabric-Fähigkeit
In der netzwerkfähigen NVMe-oF-Variante sind die Fabric und die NVMe-Controller die entscheidenden Bindeglieder zwischen tausenden NVMe-Hosts und -Subsystemen. Auch in der NVMe-Fabric hat die gemeinsame Nutzung der Ressourcen oberste Priorität. Damit das bei einer Vielzahl von Host und Clients auch gelingt, gibt es ein Multi-Queue-Modell, das getrennte Auftrags- und Erledigt-Warteschlangen vorsieht, die circa 65.000 Aufträge abarbeiten können.
Jede Verbindung vom Host über Fabric und Controller zum NVMe-Speichersubsystem ist durch Multipath-Fähigkeit physisch und logisch ausfallsicher ausgelegt. Das Speichersubsystem wird jedoch nicht wie eine Festplatte angesteuert, sondern direkt als Namespace und ist damit beliebig verschiebbar. Die im Vergleich mit SCSI sehr große Zahl an Warteschlangen sorgt dafür, dass das Gesamtsystem gut skalieren kann. Sollte trotzdem ein Auftrag im vorgesehenen Zeitrahmen nicht ausführbar sein, dann lässt sich das Kommando als „Out of Order“ in einen Haltezustand versetzen.
Wie schon bei iSCSI wird der NVMe-Transport so im Transportmedium verkapselt, dass die wichtigen Fabric-Transport-Layer wie PCIe, Fibre Channel und Infiniband/RoCE/ iWarp mit ihren spezifischen Kommandos genutzt werden können. Eine Bridge-Funktion soll letztlich Multi-Fabric-Datenmigrationen ermöglichen. Konventionelle Windows-Server sollen per iSCSI, SMB3 und FC, Linux-Hosts dementsprechend mit iSCSI, iSER, SRP oder FC mit dem Speichersystem kommunizieren. Höchste Geschwindigkeiten sind allerdings bei einem nativen NVMe-oF-Transport vom Host zur Speicher-SSD zu erwarten.
Der Masterplan
Die Pläne für NVMe und das Netzwerkpendant sind hochgesteckt. Angesichts der Entwicklungen im Halbleiterspeicherbereich geht die Industrie davon aus, dass die Latenzzeiten um den Faktor zehn und mehr abnehmen werden. Der Speicher als langjähriger Flaschenhalsbesitzer reicht damit den Schwarzen Peter an das Netzwerk weiter.
Schon NVMe for PCIe soll zeigen, dass sich Standardisierung lohnt, NVMe over Fabrics soll dann den Beweis antreten, dass Interoperabilität tatsächlich möglich ist. Doch der Weg zu einem konsistenten Speichernetzwerk mit unterschiedlichen Fabric-Typen dürfte noch zahlreiche Stolpersteine beinhalten. Schon in der Vergangenheit nahm die Storage-Industrie den Mund nicht nur mit ILM (Information Lifecycle Management) und SMIS (Storage Management Interface Specification) übervoll.
Netzwerk-Konvergenz v2.0?
NVMe over Fabric begeistert die Marketingabteilungen großer Storage-Hersteller. Drei Viertel der spezialisierten Netzwerkadapter sollen Ethernet-fähig sein. Protokolle wie RoCEV2 oder iWARP sollen dann den Datenverkehr auf die Ethernet-Leitungen bringen.
Manch einen wird das an den Versuch erinnern, Speicher- und Datenverkehr mittels des Protokolls FC over Ethernet (FCoE) zusammenzubringen. Netzwerkkonvergenz stand damals auf der Agenda. Das war 2007. Der Versuch scheiterte aufgrund der deterministischen Notwendigkeiten des Transports von Speicherdaten, die sich trotz vieler Mühen nicht mit dem TCP/IP-Protokollstack in Einklang bringen ließen.
(ID:45620522)