Mobile-Menu

Paralleler Zugriff auf gemeinsamen, verteilten Speicherbereich Was ist ein Cluster-Dateisystem (Cluster File System/Clustered File System)?

Von Dipl.-Ing. (FH) Stefan Luber 2 min Lesedauer

Anbieter zum Thema

Ein Cluster-Dateisystem sorgt dafür, dass mehrere Rechner gleichzeitig auf einen gemeinsamen, verteilten Datenbestand zugreifen können. Es stellt die Konsistenz der Dateien bei parallelen, konkurrierenden Zugriffen sicher, ohne dass ein vermittelnder Server dafür notwendig ist. Das Global File System (GFS/GFS2) von Red Hat für Linux-Systeme ist ein typisches Beispiel für ein Cluster-Dateisystem.

Ein Cluster-Dateisystem stellt die Konsistenz des Dateibestands sicher, optimiert die Performance und sorgt für eine hohe Verfügbarkeit der Daten.(Bild:  Midjourney / KI-generiert)
Ein Cluster-Dateisystem stellt die Konsistenz des Dateibestands sicher, optimiert die Performance und sorgt für eine hohe Verfügbarkeit der Daten.
(Bild: Midjourney / KI-generiert)

Mithilfe eines Cluster-Dateisystems (Cluster File System) können mehrere Rechner parallel auf einen gemeinsamen verteilten Dateibestand zugreifen. Sie können das Shared-Storage-System direkt ansprechen, ohne dass dafür wie bei herkömmlichen Netzwerkdateisystemen vermittelnde Server notwendig sind. Für die Rechner erscheint der gemeinsam genutzte Speicher wie ein einziges, gemeinsames Dateisystem mit lokalen Laufwerken.

Das Cluster-Dateisystem stellt die Konsistenz des Dateibestands sicher, optimiert die Performance und sorgt für eine hohe Verfügbarkeit der Daten. Für die verschiedenen Betriebssysteme existieren zahlreiche Implementierungen von Cluster-Dateisystemen. Ein bekanntes Cluster-Dateisystem für Linux-Systeme ist das unter Federführung von Red Hat weiterentwickelte Global File System (GFS und GFS2). Es steht unter GNU General Public License und ist als Bestandteil des Linux-Kernels verfügbar. Weitere Beispiele für Cluster-Dateisysteme sind OCFS2 (Oracle Cluster File System), GlusterFS, IBM GPFS (General Parallel File System), Lustre oder das VMFS (Virtual Machine File System) von VMware.

Abgrenzung der Begriffe Cluster-Dateisystem und Global File System

Die beiden Begriffe Cluster File System und Global File System werden aufgrund ihrer ähnlichen funktionalen Eigenschaften häufig synonym verwendet. Sie verschwimmen in ihrer Bedeutung ineinander. Beide Begriffe lassen sich deshalb auch nur in einem begrenzten Rahmen voneinander abgrenzen.

Der Begriff Cluster-Dateisystem fungiert in der Regel als Oberbegriff für Dateisysteme, die den gleichzeitigen Zugriff mehrerer Server (Clusterknoten) auf einen gemeinsamen, verteilten Speicherbereich ermöglichen. Der Begriff Global File System wird als Bezeichnung für eine konkrete Implementierung eines Cluster-Dateisystems wie des GFS/GFS2 von Red Hat oder für Dateisystemlösungen, die generell standortübergreifend und global verteilt arbeiten, verwendet.

Merkmale und Funktionen eines Cluster-Dateisystems

Damit mehrere Rechner auf verteilte Dateibestände parallel und konkurrierend zugreifen können, muss ein Cluster-Dateisystem bestimmte Merkmale besitzen und Funktionen erfüllen. Zu den typischen Merkmalen und Funktionen eines Cluster-Dateisystems zählen:

  • in großem Umfang skalierbares Dateisystem,
  • Implementierung und Bereitstellung eines global eindeutigen Namensraums,
  • Vermeidung von Konflikten bei parallelen, konkurrierenden Zugriffen und Sicherstellung der Konsistenz der verteilten Daten (Implementierung von Sperrmechanismen (Locking), Koordination von Dateisperren, Caches und Zugriffsrechten),
  • Synchronisation der Metadaten über den kompletten Cluster,
  • integrierte Mechanismen zur Replikation der Daten,
  • hochverfügbare Datenhaltung und Fehlertoleranz durch Kompensation des Ausfalls einzelner Speicherknoten,
  • Unterstützung verschiedener Protokolle und Schnittstellen für den Zugriff auf Dateien,
  • hohe Performance der Dateizugriffe.

Typische Anwendungsbereiche von Cluster-Dateisystemen

Ein Cluster-Dateisystem ist prädestiniert für Anwendungen mit besonders hohen Leistungs- oder Verfügbarkeitsanforderungen, bei denen ein gleichzeitiger, konsistenter Zugriff mehrerer Rechner auf große Datenmengen eines gemeinsamen Dateibestands notwendig ist. Dazu gehören zum Beispiel das Speichern, Bereitstellen und Verarbeiten großer Datenmengen unstrukturierter Daten, Cloud-basierte Storage-Architekturen, Hochverfügbarkeitsinstallationen, Enterprise-Umgebungen mit großen Datenbanken, Virtualisierungsumgebungen oder das High-Performance-Computing (HPC).

(ID:50619504)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Data-Storage und -Management

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung