Mit dem Aufkommen hochleistungsfähiger Rechenumgebungen wurden auch parallele Filesysteme erforderlich. Allerdings ist diese Technologie nicht nur leistungsfähig, sondern auch komplex. Panasas’ PanFS und die dazugehörigen Appliances reklamieren mehr Nutzerfreundlichkeit.
Das Highend-Produkt von Panasas: ActiveStor Flash.
(Bild: Panasas)
Große HPC-Installationen müssen auch beim Speicherzugriff und bei der Übergabe der gewünschten Daten an die rechnenden Einheiten schnell sein. Neben leistungsfähiger Hardware ist dafür in der Regel ein paralleles Filesystem zuständig. Diese Filesysteme sind in HPC-Umgebungen zur Notwendigkeit geworden.
Parallele Filesysteme heißen so, weil sie den Datenverkehr nicht über einen einzigen Knoten leiten, sondern mehrere Knoten gleichzeitig bedienen respektive Daten aus ihnen holen können. Das unterscheidet hochleistungsfähige parallele Filesysteme wie das Open-Source-Produkt Lustre oder IBMs Spectrum Scale (früher GPFS) von Lösungen, wie sie NetApp oder Isilon anbieten: Bei letzteren fließt der gesamte Verkehr nach wie vor über nur einen Knoten, was die Skalierungsfähigkeiten einschränkt.
Große Skalierbarkeit
Relativ unbegrenzte Skalierbarkeit gehört zu den wichtigsten Eigenschaften paralleler Filesysteme, die mit ihren Umgebungen und deren Leistung wachsen sollen. Sehr verbreitet ist hier Lustre. Die Open-Source-Variante eines parallelen Filesystems wird heute von dem Storage-Spezialisten DDN gepflegt.
Lustre, das 1999 entstand, ist besonders in US- und anderweitigen Forschungsinstitutionen verbreitet. Dort legt man traditionell Wert auf Flexibilität und die Möglichkeit, mit der Software herumzuexperimentieren oder sie zu verändern. Das ist bei kommerziellen Produkten in der Regel nicht möglich. Die nötigen personellen Ressourcen für solche Versuche sind eher vorhanden als in der Wirtschaft.
Parallele Filesysteme sind auch die Spezialität von Newcomern wie Weka.io, Vast oder des deutschen Start-ups BeeGFS. Sie kommen aus der Cloud-Welt, wollen sich aber auch in den neuen Märkten um AI und ML etablieren.
Ein PFS für die Wirtschaft
Panasas, gegründet im selben Jahr wie das Lustre-Projekt, setzte sich dagegen von Anfang an zum Ziel, die Handhabung eines parallelen Filesystems gravierend zu vereinfachen. Die Zielgruppe sind in erster Linie Wirtschaftsunternehmen, die auf funktionierende Lösungen mit verständlicher Bedienung Wert legen. „Wir haben uns bei der Entwicklung von PanFS von Anfang an auf Stabilität und Einfachheit fokussiert“, sagt Curtis Anderson, einer von vier Software-Architekten des Unternehmens.
Lustre benötige zum Betrieb drei bis fünf Spezialisten. Für sein Retuning seien immer wieder Abschaltungen erforderlich. Die könnten auch mal eine Woche dauern. Auch Spectrum Scale sei anspruchsvoll und aufwändig in Aufbau und im Management.
„Wir arbeiten an optimierten Versionen unserer Lösung für ML-Applikationen“, fasst Curtis Anderson, Software Architect bei Panasas, zusammen.
(Bild: Panasas)
Panasas dagegen erspare Kunden solchen Aufwand. Anderson: „Einer unserer Kunden, eine Luftfahrtfirma, betreibt in den USA drei Rechenzentren an unterschiedlichen Standorten. Die Daten sind über alle drei RZs verteilt. Das Ganze wird von einer Person mit einer halben Stelle gemanagt.“
Auch in Europa hat Panasas Kunden, etwa aus der Luft- und Raumfahrt, der Pharmabranche und anderen rechenintensiven Bereichen, wo beispielsweise CFD (Computational Fluid Dynamics), also Strömungsmodelle, eine Rolle spielen. Die europäischen Geschäfte werden momentan aus Großbritannien heraus gemanagt, ein neues kontinentaleuropäisches Team ist aber im Aufbau.
Software-Firma mit Appliance-Modell
Panasas sieht sich selbst zwar als Software-Firma – das intellektuelle Kapital stecke hier, und auch was Patente angehe, habe man sich auf wichtige Grundlagenpatente zur Technologie des Filesystems PanFS beschränkt. Dennoch, so Curtis, bekommen die Kunden PanFS nur zusammen mit einer Appliance, von der es diverse Flavors gibt.
„Wir tun das, damit es die Kunden einfach haben“, sagt Anderson. Prinzipiell laufe PanFS auf jeder Hardware. Allerdings müsse man sich die Fehlermodi der Hardware genau ansehen und gegebenenfalls Anpassungen vornehmen, damit Hard- und Software harmonierten. Das nehme Panasas den Kunden ab.
Der Director-Node steuert
Derzeit laufen die Panasas-Appliances auf Supermicro-Hardware. Es gibt sie in drei Varianten: Hybrid, Archiv und All-Flash-Storage. Zudem gibt es noch Director-Nodes, die die Verwaltungsaufgaben innerhalb einer Installation übernehmen. Dazu gehören die Rekonstruktion der Daten nach Ausfällen, die Aufrechterhaltung der Cache-Kohärenz, das Management des Quorum, das netzbasierende Erasure Coding und die Handhabung der POSIX-kompatiblen Metadaten.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Das Verhältnis zwischen Speicher- und Director-Nodes hängt von der Anwendung ab: In relativ wenig agilen Archivumgebungen braucht man weniger Director-Leistungen, in hochaktiven Installationen mehr. Im Durchschnitt empfiehlt Panasas einen (redundanten) Director-Node auf vier Storage-Knoten. Man habe aber auch schon erfolgreich arbeitende Umgebungen mit einem Verhältnis von 1:10 kennengelernt, so Anderson.
Von All-Flash bis Archiv
In den All-Flash-Devices stecken lediglich NVMe-Drives, von denen manche kapazitäts- und manche leistungsoptimiert sind. Letztere speichern die Metadaten.
Das Midrange-Produkt für gemischte Workloads verwendet dieselben NVMe-SSDs wie die All-Flash-Variante für Metadaten, für die übrigen Daten kostengünstige SATA-SSDs. Sehr große Files landen auf sechs Hard Disks.
Das Kapazitätsprodukt verwendet eine größere Version der NVMe-SSD, wo Metadaten und kleine Files landen. Kombiniert wird sie mit acht Hard Disks, um Files zu speichern.
Zukünftig will sich Panasas besser für das Anwendungsgebiet AI/ML aufstellen. Ein Weg dazu ist die enge Zusammenarbeit mit der gemeinnützigen Organisation ML Commons. Sie definiert Leistungs-Benchmarks für Maschinenlern-Umgebungen. Dadurch können Anwender ermitteln, wie viele GPUs sie auf ihr Problem ansetzen müssen, wie groß also die nötige Rechenleistung ist.
Allerdings fehlte bislang eine Übertragung dieser Benchmarks auf den Storage-Bereich. Den muss bisher jeder selbst optimieren, was oft genug in aufwändigen Redimensionierungen enden dürfte. Das möchte ML Commons nun ändern. Dafür wurde eine ML Storage Group gegründet, in deren Vorstand Anderson mit zwei anderen Branchenspezialisten sitzt.
Bei der Optimierung der Panasas-Produkte für den ML-Markt geht es nicht so sehr darum, an der Hardware herumzuschrauben, sondern um diffizile Software-Anpassungen. Die Software soll im Stande sein zu erkennen, ob sie gerade mit einem Pytorch- oder einem Tensorflow-Framework zu tun hat, was die Methode des Filezugriffs beeinflusst.
Denn beide Frameworks verfolgen hier eine unterschiedliche Strategie: Tensorflow bildet Konglomerate von Files (Tensorflow-Files). Geöffnet werden können auf einmal immer nur die Files innerhalb eines Tensorflow-Files. Pytorch dagegen erlaubt es, alle Files auf einmal zu öffnen und auf sie zuzugreifen. Da ML nur mit Zufallszugriff funktioniert, ist dieser Unterschied für die Lernfähigkeit des Systems wichtig.
Servicemodelle: bislang kein Angebot
Während das Engagement im ML-Bereich klar ist, sieht es bei den derzeit immer beliebteren Servicemodellen bislang mau aus. „Wir haben momentan keine konkreten Absichten, unsere Produkte as-a-Service anzubieten“, sagt Anderson. Denn das erfordere größere Umstellungen in Betrieb und Finanzierung der Firma.
Für alle Zukunft ausschließen will Anderson den Einstieg in Servicemodelle aber nicht – das wäre angesichts der derzeitigen Marktentwicklung bei professioneller IT für ein Unternehmen, das erfolgreich sein und bleiben möchte, auch sehr verwunderlich.
Jeff Whittaker, VP Marketing & Products bei Panasas, ergänzt: „Ich komme aus einem Cloud-Umfeld, in dem der Servicemodus erforderlich ist, aber im HPC-Bereich haben wir nur sehr wenige Fälle gesehen, in denen unsere Kunden und Interessenten nach einem Servicemodell gefragt haben. Wir halten es für wichtig, dies im Auge zu behalten und eine Anpassung vorzunehmen, sobald der [HPC-]Markt danach fragt. Es handelt sich lediglich um eine Anpassung des Betriebs- und Finanzmodells, so dass nur ein geringer oder gar kein technischer Aufwand erforderlich wäre. Wir schließen diese Möglichkeit also nicht aus.“
Aktuelles eBook
Herausforderungen für den Speicher: Big Data
Storage-Systeme für große Datenmengen
eBook „Storage-Systeme für große Datenmengen“
(Bild: Storage-Insider)
Bei der Speicherung von Big Data wird zunehmend auf Data Lakes zurückgegriffen, doch genügt es nicht, die eintreffenden Datenströme einfach dorthinein zu kippen – dann würde daraus schnell ein „Data Swamp“. Lesen Sie im eBook, wie Sie optimal mit großen Datenbergen umgehen können und wie die entsprechenden Daten optimal für die Bearbeitung bereitgestellt werden können.
Die Themen im Überblick:
Big Data und Storage-Systeme
Aus Big Data Wert schöpfen
Wohin mit den unstrukturierten Daten?
Von der lokalen Appliance über Cloud Provider bis in die Hybrid Cloud