Nutanix will mit der Harvard-Architektur die kommerziellen Rechenzentren erobern, Teil 2 Mit NDFS und SOCS Daten näher an den Verarbeitungsknoten bringen
Wie die Skalierung der Virtual Computing Platform funktioniert und warum handelsübliche Hardware völlig ausreicht
Anbieter zum Thema

Bislang sind Rechenzentren von spezialisierter Hardware abhängig, die sie oftmals nur für jeweils eine bestimmte Aufgabe nutzen. Dabei kann es sich zum Beispiel um Hochleistungs-Loadbalancer oder Storage-Arrays auf Hardwarebasis handeln.
Die Laufzeitlogik dieser Anwendungen ist in der Regel in der Plattform, etwa mittels FPGAs oder ASICs, eingebettet, so dass neue Softwarefunktionen oftmals nur mit Mühe unterstützt werden können. Skalierung, Management und Support werden durch diesen applikationsspezifischen Ansatz teuer und aufwendig.
Softwarecluster statt spezieller Hardware
Demgegenüber verfolgt Nutanix einen Hardware-agnostischen Ansatz, indem auch die Storage-Ressourcen mit dem Hypervisor über gängige Schnittstellen wie NFS in Kontakt gebracht werden. Möglich wird dies über die verteilte Softwarearchitektur der Virtual Computing Platform, die alle vorhandenen Rechen- und Speicherressourcen in einem Pool zusammenfasst und von der darunter liegenden Hardware abstrahiert.
Nutanix Distributed File System (NDFS) heißt diese verteilte Architektur, ein Cluster beliebig vieler Knoten, der linear skaliert. Jeder dieser Nutanix-Knoten betreibt einen Industriestandard-Hypervisor und enthält Prozessoren, Arbeitsspeicher und lokalen Speicher einschließlich Solid-State Drives (SSD) und Festplattenlaufwerken. Auf jedem Knoten laufen virtuelle Maschinen, genau wie auf einem normalen VM-Host.
Daten automatisch dorthin bringen, wo sie gebraucht werden
Die lokalen Speicherressourcen werden alle in Form eines einheitlichen Pools, dem Nutanix Scale-out Converged Storage (SOCS) virtualisiert. SOCS verhält sich wie ein intelligentes SAN, das die lokalen SSDs und Festplatten aller Knoten dazu nutzt, VM-Daten zu speichern.
Die virtuellen Maschinen, die auf dem Cluster laufen, schreiben die Daten auf SOCS, als ob sie sie gegen ein SAN schreiben würden. SOCS kennt die verschiedenen virtuellen Maschinen, weiß also, welche Daten von welcher VM angefragt oder in den Speicher verlagert werden, und bietet innovative Funktionalitäten für das Datenmanagement.
So bringt SOCS die benötigten Daten näher an die virtuellen Maschinen heran, indem sie lokal vorgehalten werden. Und je häufiger die Daten angefragt werden, desto länger befinden sie sich in den SSDs, während die seltener benötigten auf Festplatten verschoben werden. All dies erfolgt automatisch.
Controller und Metadaten: Grenzen aufheben
Während herkömmliche SAN-Lösungen 1, 2, 4 oder 8 Controller aufweisen, hat das NDFS N Controller. Denn auf jedem Knoten läuft eine spezielle virtuelle Maschine, die Controller-VM, die als virtueller Controller für SOCS dient. Sämtliche Controller-VMs kommunizieren miteinander und formieren sich zu einem einzigen verteilten System.
(ID:42262823)