Nutanix will mit der Harvard-Architektur die kommerziellen Rechenzentren erobern, Teil 2

Mit NDFS und SOCS Daten näher an den Verarbeitungsknoten bringen

| Autor / Redakteur: Marcus Ehrenwirth / Rainer Graefen

(Foto: Nutanix)

Wie die Skalierung der Virtual Computing Platform funktioniert und warum handelsübliche Hardware völlig ausreicht

Bislang sind Rechenzentren von spezialisierter Hardware abhängig, die sie oftmals nur für jeweils eine bestimmte Aufgabe nutzen. Dabei kann es sich zum Beispiel um Hochleistungs-Loadbalancer oder Storage-Arrays auf Hardwarebasis handeln.

Die Laufzeitlogik dieser Anwendungen ist in der Regel in der Plattform, etwa mittels oder ASICs, eingebettet, so dass neue Softwarefunktionen oftmals nur mit Mühe unterstützt werden können. Skalierung, Management und Support werden durch diesen applikationsspezifischen Ansatz teuer und aufwendig.

Softwarecluster statt spezieller Hardware

Demgegenüber verfolgt Nutanix einen Hardware-agnostischen Ansatz, indem auch die Storage-Ressourcen mit dem über gängige Schnittstellen wie in Kontakt gebracht werden. Möglich wird dies über die verteilte Softwarearchitektur der Virtual Computing Platform, die alle vorhandenen Rechen- und Speicherressourcen in einem Pool zusammenfasst und von der darunter liegenden Hardware abstrahiert.

Nutanix (NDFS) heißt diese verteilte Architektur, ein Cluster beliebig vieler Knoten, der linear skaliert. Jeder dieser Nutanix-Knoten betreibt einen Industriestandard-Hypervisor und enthält , Arbeitsspeicher und lokalen Speicher einschließlich Solid-State Drives () und Festplattenlaufwerken. Auf jedem Knoten laufen virtuelle Maschinen, genau wie auf einem normalen VM-.

Daten automatisch dorthin bringen, wo sie gebraucht werden

Die lokalen Speicherressourcen werden alle in Form eines einheitlichen Pools, dem Nutanix Converged Storage (SOCS) virtualisiert. SOCS verhält sich wie ein intelligentes SAN, das die lokalen SSDs und Festplatten aller Knoten dazu nutzt, VM-Daten zu speichern.

Die virtuellen Maschinen, die auf dem Cluster laufen, schreiben die Daten auf SOCS, als ob sie sie gegen ein SAN schreiben würden. SOCS kennt die verschiedenen virtuellen Maschinen, weiß also, welche Daten von welcher VM angefragt oder in den Speicher verlagert werden, und bietet innovative Funktionalitäten für das Datenmanagement.

So bringt SOCS die benötigten Daten näher an die virtuellen Maschinen heran, indem sie lokal vorgehalten werden. Und je häufiger die Daten angefragt werden, desto länger befinden sie sich in den SSDs, während die seltener benötigten auf Festplatten verschoben werden. All dies erfolgt automatisch.

Controller und Metadaten: Grenzen aufheben

Während herkömmliche SAN-Lösungen 1, 2, 4 oder 8 Controller aufweisen, hat das NDFS N Controller. Denn auf jedem Knoten läuft eine spezielle virtuelle Maschine, die Controller-VM, die als virtueller Controller für SOCS dient. Sämtliche Controller-VMs kommunizieren miteinander und formieren sich zu einem einzigen verteilten System.

Inhalt des Artikels:

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 42262823 / RZ-Hardware)