Wie geht es weiter mit der aktuell aufregendsten Speicherplattform der Branche? Neeloy Bhattacharyya, Director, AI/HPC Solutions Engineering bei Vast, erläutert im Gespräch mit Storage-Insider, worauf sich KI-Anwender noch 2024 freuen dürfen.
Vast Data stellt die Infrastruktur für Deep Learning und GPU-beschleunigte Rechenzentren bereit.
In den vergangenen Jahren hat kaum ein Start-up so viel Aufmerksamkeit erregt wie Vast Data. Der Experte für Storage rund um die künstliche Intelligenz (KI) wurde 2019 von Jeff Denworth und Renen Hallak gegründet, um Infrastruktur für Deep Learning und GPU-beschleunigte Rechenzentren bereitzustellen. Dafür steuert das Vast-Software-Cluster vorzugsweise kostengünstige Flash-Komponenten und NVMe-over-Fabrics-Speichernetzwerke an.
„Der grundsätzliche Fokus lag auf der schnellen und flexiblen Bereitstellung sehr großer Datenmengen. Unsere Technologie ist generell auf Flash ausgerichtet, wobei ich betonen möchte, dass wir keine Hardware-Anbieter sind. Unser Schwerpunkt liegt eindeutig auf der Software, was uns natürlich eine gewisse Flexibilität verleiht“, erläuterte Neeloy Bhattacharyya, Director, AI/HPC Solutions Engineering bei Vast, nun im Gespräch mit Storage-Insider.
Das System sei so entwickelt worden, dass es einen nahtlosen und universellen Datenzugriff und -verarbeitung vom Edge bis zur Cloud ermögliche. Dies geschieht auf einer Plattform, die Unternehmen und Cloud-Service-Anbieter auf der Infrastruktur ihrer Wahl einsetzen können. So weit, so auch von anderen Anbietern bekannt.
Die Vast-Datenplattform ist jedoch auch die erste All-Flash-Appliance zur Speicherung unstrukturierter Daten. Zum Einsatz kommen QLC-Flash-Laufwerke und NVMe oF. Darüber hinaus wird eine proprietäre, „SIMILARITY“ genannte Technologie eingesetzt, um eine Speicherhierarchie zu vereinheitlichen, die zuvor aus mehreren Produkten in mehreren Ebenen bestand. Die Folge sollen deutlich niedrigere Betriebskosten und eine bis zu 90 Prozent höhere Kosteneffizienz als bei herkömmlichen Systemen mit Flash-Technologie sein.
Kunden interagieren mit der Logikschicht von Vast, die auf Servern vor Ort, von einem Hyperscaler oder als Service von KI-Cloud-Service-Providern angeboten werden kann. „Vast-Anwendungen für den Einsatz vor Ort sind so konzipiert, dass sie ein Gleichgewicht zwischen Leistung und Kapazität bieten“, so Bhattacharyya. „Wir arbeiten mit einigen führenden Herstellern von Unternehmenstechnologie zusammen, um belastbare, skalierbare und effiziente Geräte zu spezifizieren. Unsere skalierbare Cluster-Architektur ermöglicht es, verschiedene Generationen von Flash- und Storage-Compute-Infrastrukturen zu kombinieren.“
Vast läuft vorzugsweise auf Hyperscale-Flash
Laut dem KI-Experten nutzt Vast vorzugsweise „Hyperscale-Flash“. Damit seien alle Arten von SSDs, die Hyperscaler wie Facebook, Google und Baidu verwenden, gemeint: „Da Hyperscaler ihre Systeme ganz anders aufbauen als Unternehmens-SAN-Arrays, unterscheiden sich Hyperscale-SSDs sowohl von Unternehmens- als auch von Verbraucher-SSDs. Hyperscale-Flash stellt eine Klasse von SSDs dar, die entwickelt wurde, um die von Hyperscale-Speichersystemen erforderliche Kapazität und Zuverlässigkeit zu bieten, ohne die zusätzlichen Kosten für die Unternehmensfunktionen, die bei älteren Speicherarchitekturen erforderlich sind.“
Hyperscale-SSDs setzen High-Bit/Cell-Flash (4-Bit/Cell-QLC und/oder 5-Bit/Cell-PLC) ein und verfügen im Gegensatz zu hochpreisigen Dual-Port-Enterprise-Laufwerken über einen einzigen NVMe-Anschluss. Sie schreiben direkt auf High-Bit/Cell-Flash ohne DRAM oder SLC-Caches, wodurch Stromausfallschutzschaltungen und Batterien oder Ultrakondensatoren für die Stromversorgung tendenziell überflüssig werden.
„Die Systeme von Vast sind so konzipiert, dass sie den Flash-Verschleiß auf zweierlei Weise minimieren: erstens durch die Verwendung innovativer neuer Datenstrukturen, die sich der internen Geometrie kostengünstiger Hyperscale-SSDs anpassen“, fasste Bhattacharyya zusammen. „Zweitens durch die Verwendung eines großen SCM-Schreibpuffers zur Absorption von Schreibvorgängen, der die Zeit und den Raum bietet, den Flash-Verschleiß zu minimieren. Diese Kombination ermöglicht es Vast Data, unsere Flash-Systeme zehn Jahre lang zu unterstützen.“
Audit-Funktion für die Datenbank
Die Vast-Datenbank hat erst kürzlich eine Audit-Funktion für analytische Zwecke erhalten. Audit-Protokolle werden in der Datenbank gespeichert und können in Echtzeit abgerufen werden. „Ein neuer Ansatz zur tabellarischen Datenspeicherung ermöglicht es der Plattform, Daten wie eine Transaktionsdatenbank mit hoher Geschwindigkeit einzufügen und sie als feinkörnige Spalten abzufragen, um eine hervorragende Analyseleistung zu erzielen. Dies macht die Plattform ideal für die Erfassung und Überwachung von Ereignissen in Echtzeit“, zeigte sich Bhattacharyya überzeugt.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Seit dem im Dezember vorgestellten Release 5.0 könnten Kunden die Datenbank als Plattform für die Erfassung und Analyse von Protokollen nutzen. Die Anwendungsfälle umfassen KI, Biowissenschaften und Genomik, Finanzdienstleistungen und Datenschutz. Der Remote-Cloud-basierte Management-Service verfüge dafür über eine Machine-Learning-gestützte [ML] Ereignisverarbeitung, um anomales Verhalten zu verstehen. Dieses weist bekanntermaßen auf unangemessenes Benutzerverhalten sowie auf Bedrohungen wie Ransomware-Angriffe hin.
„Unsere Kunden sind in der Lage, Data Warehouses, Data Lakes und andere isolierte Daten auf einer einzigen Plattform zu vereinen, so dass sie schnelle, skalierbare Analysen ihrer strukturierten und unstrukturierten Daten durchführen können. Sie können interaktive, leistungsstarke Analysen erstellen und es Datenwissenschaftlern und Datenanalysten ermöglichen, Daten zu verarbeiten und Ad-hoc-Abfragen in großem Maßstab durchzuführen, indem sie die Analysetools ihrer Wahl verwenden, darunter Apache Spark, ElasticSearch, Trino, Dremio und Vertica“, erklärte der Solutions Engineer.
Kurs auf Version 6.0 der Plattform
Stillstand ist für keinen Entwickler eine Option; auch Vast hegt bereits Pläne für die Weiterentwicklung seiner Plattform. Und das laut Bhattacharyya in drei Dimensionen:
1. Die Evolution der Logik-/Präsentationsschicht auf der Grundlage von Kundenanforderungen; mit Release 5.0 wurde bereits ein Multicluster-Manager eingeführt, der die Skalierung von Vast on Cloud-Implementierungen und die Unterstützung von Persistenz für Vast on Cloud erleichtern und die Anwendungsfälle über Cloud-Bursting hinaus erweitern soll,
2. Sicherheit und Leistung der Plattform und
3. Vereinfachung der Skalierung und erweiterte Ausfallsicherheitsoptionen.
Noch dieses Jahr soll die Plattform Verbesserungen erfahren, darunter die Veröffentlichung einer DataEngine und die Einführung neuer Architekturoptionen: „In Zukunft konzentrieren wir uns auf die Vereinfachung unserer Architektur, um es Kunden leichter zu machen, die Leistung zu skalieren, ohne zusätzliche Hardware kaufen zu müssen, und um die Datenbewegung zu minimieren.“
Version 5.0 brachte vor allem zwei neue Funktionen
Apropos Bursting: Frühere Vast-Versionen setzten auf Burst-Computing, waren jedoch nicht für die langfristige Datenspeicherung geeignet. Das hat sich mit Version 5 geändert, wie Bhattacharyya bestätigte: „Vast bietet in Version 5.0 zwei neue Funktionen, die Kunden bei der Vereinfachung ihrer Cloud-Implementierungen helfen. Der Vast-Multi-Cluster-Manager ist für die Bereitstellung und Verwaltung von Cloud-Clustern sowie für die Erstellung von Datenfreigabe- und Replikationsbeziehungen zwischen Clustern zuständig. Eine weitere wichtige Funktion ist die Availability-Zone-weite [AZ] Datenverfügbarkeit.“
Für die langfristige Datenspeicherung unterhalte man nun zudem eine zweite Kopie der Daten in persistenten Datenspeichern innerhalb von AWS: „Wir wollen mit unserer Datenplattform die gesamte KI-Pipeline unterstützen, nicht nur das Training von Large-Language-Models [LLMs]. Viele Kunden möchten Funktionen wie die Daten- und Modellvorbereitung in öffentlichen Clouds ausführen. Diese Anwendungsfälle profitieren von persistenter Speicherung.“
Die typischen Arbeitslasten solcher Anwendungsfälle betragen laut dem Manager durchschnittlich 12 PB, während die meisten Wettbewerber von Scale-Out-Dateisystemen mit deutlich kleineren Clustergrößen im Bereich von ein bis zwei PB operieren. „Unsere Kunden konsolidieren Workloads dicht auf der Plattform, da sie wissen, dass unsere Architektur nicht unter der Back-End-Netzwerküberlastung leidet, die die Skalierbarkeit herkömmlich verteilter Scale-out-Dateispeicher einschränkt. Workloads, für die in der Vergangenheit separate Systeme und/oder Cluster erforderlich waren, können nun auf einer einzigen Plattform konsolidiert werden“, strich Bhattacharyya heraus.
Semi-Sorted-Projections beschleunigen den Zugriff
Die Geschwindigkeit des Zugriffs auf Daten ist für den Erfolg von KI-Projekten nicht unerheblich. Herkömmliche mehrstufige Speicherung ist daher laut Vast keine Option mehr. In Version 5 der Plattform kommen daher „Semi-Sorted-Projections“ zum Einsatz. Durch Push-Down-Prädikate führen die Rechenknoten der Vast-Datenplattform Low-Level-Operationen für die Abfrageausführung durch: „Vast verwendet keine Abfrage-Engine, keinen Abfrage-Optimierer, keinen SQL-Parser und keinen Abfrage-Planer, sondern wir stützen uns auf leistungsstarke Rechenknoten für schnelle, effiziente Low-Level-Berechnungen. Neuere Versionen der Vast-Datenbank nutzen verteilte Sortierung und halbsortierte Projektionen, um eine noch bessere Leistung zu erzielen“, erläuterte der Director.
Eine Projektion ist eine Tabelle, die von einer übergeordneten Tabelle abgeleitet ist und eine Teilmenge ihrer Daten enthält. Um nützlich zu sein, werden die projizierten Daten so manipuliert, dass die Abfrage für relevante Abfragen schneller ist. Ein Beispiel hierfür ist eine Projektion, die eine der Spalten der Originaltabelle in sortierter Form enthält. Andere Beispiele umfassen das Speichern einer Aggregation einer Spalte oder einer Gruppierung dieser Spalte.
„Eine Projektion kann auch das Ergebnis einer beliebigen Abfrage auf eine Originaltabelle sein, die dauerhaft als projizierte Tabelle gespeichert wird“, so Bhattacharyya. Im Endeffekt könnten Kunden bei Abfragen, die von gefilterten Projektionen profitieren können, eine Leistungssteigerung von 1.000 Prozent mit vorsortierten Daten feststellen.
Semi-Sorted-Projections seien auch ein Beispiel dafür, wie man dem Kunden nur die Daten geben könne, die er suche – und keine unnötigen Spalten weitergebe. „Mit unserer DataEngine werden wir viele weitere Funktionen zur direkten Bearbeitung der Daten vorstellen, die dazu beitragen, den Rechenaufwand datenintensiver Vorgänge zu beschleunigen und zu reduzieren.“
Der Hype um die KI befeuert das Geschäft von Vast ungemein. Die KI verändert nach Ansicht von Bhattacharyya jeden Aspekt der Welt, unser aller Leben und jede Branche. Allerdings sei KI derzeit noch ein sehr kapitalintensives Geschäft. Dementsprechend rasant gehe die Entwicklung dort besonders schnell voran, wo die Ressourcen vorhanden sind, etwa in der Genomforschung großer Unternehmen und finanzstarker Forschungseinrichtungen: „Neben der Pharma- und Medizintechnik gibt es in den Bereichen Automatisierung und Robotik sicherlich großes Potenzial im Bereich FinTech und Industrie.“
Zusätzlich ist man jede Menge Allianzen mit anderen KI-Experten wie Runai, Genesis, Supermicro, Dalet oder Coreweave eingegangen. Prominentester Partner ist aber sicherlich Nvidia, mit dem man validierte KI-Lösungen bereitstellt. Die Vast-Datenplattform ist zudem die erste NAS-Lösung für Unternehmen, die für Nvidia-DGX-SuperPOD-Umgebungen zugelassen wurde. Anwender können unter verschiedenen Vast-Datenkonfigurationen für DGX BasePOD wählen.
„Unsere Zusammenarbeit ermöglicht es Kunden, die Vast-Datenplattform mit ihren Nvidia-DGX-SuperPOD-Umgebungen zu nutzen, um moderne unternehmens- und Cloud-basierte KI-Initiativen zu beschleunigen“, erläuterte Bhattacharyya. „Mit zunehmender Verbreitung von KI und HPC in Unternehmen suchen diese nach einer umfassenden Infrastruktur, die Leistung und Skalierbarkeit bietet, um aus ihren Daten Erkenntnisse zu gewinnen.“
Ist die Cloud zu langsam für die KI-Infrastruktur?
Für die Zukunft erwartet der Entscheider viele neue KI-Clouds für die verschiedensten Branchen und Anwendungsfälle. Dieser „Demokratisierung der KI-Ressourcen“ steht gegenüber, dass viele Anwender für das Training von LLMs de facto eigene Storage-Instanzen aufbauen, etwa weil die Latenz beim Abruf aus der Cloud zu hoch ist. Doch Bhattacharyya sieht die Cloud-Offerten im Aufwind, zumal eine eigene KI-Umgebung mit den entsprechenden Speicherinstanzen eine kostspielige Angelegenheit sei. Auch fehle es im Rechenzentrum oft an Experten und personellen Ressourcen. „KI aus der Cloud dürfte daher für viele KMU eine interessante Alternative sein.“
Noch dieses Jahr sei daher mit neuen Partnerschaften mit Dienstanbietern zu rechnen, die sich auf die Modellbereitstellung, auch bekannt als Inferenz, konzentrieren. Wie Sie bemerken, sind KI-Pipelines kompliziert, und in vielen Fällen verfügen Kunden nicht über die Leistung, den Platz im Rechenzentrum oder das Fachwissen, um ihre Modellschulung oder -bereitstellung durchzuführen. Daher glauben wir, dass Cloud-Solution-Provider eine entscheidende Rolle bei der Einführung von KI spielen werden.“
Dabei müsse aber klar sein, dass es nicht die eine „Cloud“ für alle Anforderungen gebe, „aber es zeigte sich, dass eine Cloud-Infrastruktur sehr hohe Anforderungen erfüllen muss, damit KI-Anwendungen wirklich praktikabel sind. An entsprechenden Diensten arbeiten nicht nur die großen Cloud-Player wie AWS, GCP und Azure, sondern auch kleinere, spezialisierte Anbieter wie Genesis Cloud in Deutschland, die wir mit unserer Technologie unterstützen.“
Für Bhattacharyya reicht es aber nicht, eine KI-gestützte Cloud „schnell“ zu machen: „In einer aktuellen Studie hat eine KI-Abteilung der Fraunhofer-Gesellschaft die Cloud-basierten KI-Plattformen der vier größten Anbieter bewertet: Amazon Web Services, Google Cloud Platform, IBM Cloud und Microsoft Azure. Die Studie untersuchte gängige Anwendungsbereiche des maschinellen Lernens, also strukturierte Daten, natürliche Sprachverarbeitung, Bilderkennung und Zeitreihenanalyse. Hier zeigen sich Unterschiede und Schwierigkeiten, beispielsweise bei der Textklassifizierung.“
Nächster Paukenschlag: Suchmaschine für unstrukturierte Daten
Unternehmen mit KI-Ambitionen müssten daher einen genauen Blick auf die entsprechenden Ressourcen werfen. Allerdings erschwere die Vielzahl an Diensten, Fachbegriffen und Teilbereichen gerade KI-Einsteigern die Arbeit. Für die Zukunft erwartet Bhattacharyya daher konsolidierte KI-Plattformen, die es generell einfacher machen, Ergebnisse durch maschinelles Lernen zu erzielen und zu interpretieren.
Das ist bekanntermaßen knifflig, aber am Ende des Weges soll eine Art Suchmaschine für unstrukturierte Daten stehen, wie Vast-Mitbegründer Jeff Denworth uns bereits in einem früheren Gespräch erläuterte. Und tatsächlich hat Vast bereits Benchmarking-Arbeiten mit Elasticsearch und ähnlichen Plattformen durchgeführt, die unstrukturierte Daten durchsuchen können. „Diese Suchfunktion wird nicht in der ersten Version der DataEngine enthalten sein, aber angesichts der Kundennachfrage könnten wir uns vorstellen, sie zu priorisieren“, berichtete Bhattacharyya.
LLMs funktionierten von Natur aus gut mit unstrukturierten Daten, aber das bedeute nicht, „dass sie diese verstehen“. Einer der Schlüssel zum Erfolg mit LLMs bestehe darin, mit der Aufbereitung der Daten auf unterschiedliche Weise zu experimentieren und verschiedene Aufmerksamkeits-Algorithmen und -Ansätze auszuprobieren. Vast vertrete daher den Standpunkt, dass alle jederzeit Zugriff auf all ihre Daten haben sollten, so wie bei Vast. Andere Architekturen, bei denen Daten ständig aus dem Cache geladen und entladen werden, dauerten einfach zu lange.
Aktuelles eBook
Storage für HPC & KI
eBook „Storage für HPC & KI“
(Bild: Storage-Insider)
Speichersysteme für das HPC und für die verschiedenen Disziplinen der KI sind hohen Anforderungen ausgesetzt. Denn sie müssen enorme Datenmengen in kürzester Zeit bereitstellen oder sammeln. Wie können diese Herausforderungen gemeistert werden?
Die Themen im Überblick:
Aktuelle Trends in der Künstlichen Intelligenz
High-Performance Computing – Explosion der Innovationen