Mobile-Menu

IBM Storage Scale System 6000 IBM präsentiert Speicher-Appliance für KI-Workloads

Von Bernhard Lück 3 min Lesedauer

Anbieter zum Thema

Das IBM Storage Scale System 6000 bietet laut Hersteller bis zu 7 Millionen E/A-Operationen pro Sekunde und bis zu 256 Gbit/s Durchsatz für schreibgeschützte Workloads pro System. Damit werde die Speicher-Appliance den Anforderungen an datenintensive Workloads und KI gerecht.

Mit dem Storage Scale System 6000 möchte IBM nach eigener Aussage „das Potenzial von Daten und KI entfesseln“.(Bild:  IBM)
Mit dem Storage Scale System 6000 möchte IBM nach eigener Aussage „das Potenzial von Daten und KI entfesseln“.
(Bild: IBM)

„Das Potenzial der neuen KI-Ära von heute lässt sich meiner Meinung nach nur voll ausschöpfen, wenn Unternehmen eine Strategie haben, Daten aus mehreren Quellen nahezu in Echtzeit zusammenzuführen, ohne zahlreiche Kopien von Daten zu erstellen und konstante Iterationen der Datenaufnahme zu durchlaufen“, sagt Denis Kennelly, General Manager bei IBM Storage. „IBM Storage Scale System 6000 bietet Kunden die Möglichkeit, genau das zu tun – es bringt Daten aus Kern, Edge und Cloud auf einer einzigen Plattform mit optimierter Leistung für GPU-Workloads zusammen.“

Das IBM Storage Scale System 6000 sei für die Speicherung semistrukturierter und unstrukturierter Daten wie Videos, Bilder, Text, Instrumentierungsdaten und so weiter optimiert, die täglich generiert werden und den digitalen Speicherbedarf eines Unternehmens in hybriden Umgebungen vergrößern. Kunden verspricht IBM folgende Vorteile:

Größere Dateneffizienz und Skaleneffekte durch IBM FlashCore-Module (FCM)

  • Im 1. Halbjahr 2024, so der Hersteller, sollen IBM FlashCore-Module (FCM) integriert werden. Die neue maximale Kapazität von NVMe FCM senke die Kosten um 70 Prozent und verbrauche 53 Prozent weniger Energie pro Terabyte im Vergleich zu vorherigen Flash-Laufwerken von IBM mit maximaler Kapazität für IBM Storage Scale System. Dies könne Kunden helfen, die volle Leistung von NVMe mit den Kostenvorteilen von Quad-Level-Cell (QLC) zu realisieren.
  • Leistungsfähige integrierte Hardware-beschleunigte Datenkomprimierung und -verschlüsselung, um Kundendaten auch in Multi-User- und Multi-Tenant-Umgebungen zu schützen.
  • Storage Scale System 6000 mit FCM unterstützt auf derselben Grundfläche das 2,5-fache Datenvolumen des Systems der vorherigen Generation.

Beschleunigte Einführung und Operationalisierung von KI-Workloads mit IBM Watsonx

  • Auf Grund einer neuen NVMeoF-Turbo-Schicht, einer neuen parallelen Multi-Tenant-Datenisolation und patentierten IBM-Speicherlaufwerken für Rechenleistung gebe es mehr Leistungssicherheit und Effizienz für KI-Workloads.
  • Die Storage-Scale-Software, die globale Datenplattform für unstrukturierte Daten, die das Scale System 6000 unterstützt, verbindet Daten mit einem offenen Ökosystem aus Speicheroptionen verschiedener Anbieter, einschließlich AWS, Azure, IBM Cloud und anderen öffentlichen Clouds, zusätzlich zu IBM Storage Tape.

Schnellerer Zugriff auf Daten

  • IBM zufolge stehen im Vergleich zu marktführenden Mitbewerbern ein über 2,5-facher Gbit/s-Durchsatz sowie die doppelte Leistung bei E/A-Operationen pro Sekunde zur Verfügung.
  • Hoher Verarbeitungsdurchsatz und hohe Zugriffsgeschwindigkeit mit mehreren gleichzeitig ablaufenden KI- und datenintensiven Workloads, die ausgeführt werden können, um eine Reihe von Anwendungsfällen zu erfüllen.

Schnellere KI mit dem IBM Storage Scale System und Nvidia-Technologie

Das Storage Scale System 6000 biete die Möglichkeit, eine Informationslieferkette von einer Nvidia-KI-Lösung zu anderen KI-Workloads zu erstellen, unabhängig davon, wo sie sich befänden. Die neue NVMe-oF-Turbo-Schicht von IBM sei für kleine Dateien entwickelt worden, zum Beispiel für Dateien, die von fernen Geräten erfasst wurden oder für den Zugriff auf kleinere Transaktionen wie Data-Lake- oder Lakehouse-Analysen, sodass sie in eine Nvidia-Lösung integriert werden könnten.

Laut Hersteller unterstützt das Storage Scale System 6000 Nvidia Magnum IOTM GPUDirect Storage (GDS) mit einem direkten Pfad zwischen GPU-Hauptspeicher und Speicher. Es sei auch entwickelt worden, um die Leistung mit E/A-Operationen zur Übertragung großer Datenmengen zu verbessern, wenn GDS aktiviert ist. Unter Verwendung von Nvidia ConnectX-7 NICs unterstütze das Scale System 6000 bis zu 16 Ports mit 100 GB RDMA over Converged Ethernet (RoCE), 200 Gbit/s- und/oder 400 Gbit/s-InfiniBand oder eine Kombination aus beiden, um die Leistung zwischen Knoten oder direkt zu Nvidia-GPUs zu erhöhen.

Aktuelles eBook

Storage für HPC & KI

eBook Storage für HPC & KI
eBook „Storage für HPC & KI“
(Bild: Storage-Insider)

Speichersysteme für das HPC und für die verschiedenen Disziplinen der KI sind hohen Anforderungen ausgesetzt. Denn sie müssen enorme Datenmengen in kürzester Zeit bereitstellen oder sammeln. Wie können diese Herausforderungen gemeistert werden?

Die Themen im Überblick:

  • Aktuelle Trends in der Künstlichen Intelligenz
  • High-Performance Computing – Explosion der Innovationen
  • Künstliche Intelligenz – nahezu Echtzeit-Datenverarbeitung

(ID:49791777)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Data-Storage und -Management

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung