Mobile-Menu

Wechselwirkung und Entwicklung der Flash-Preise

Fokus Flash-Speicher und KI

< zurück

Seite: 2/3

Anbieter zum Thema

Von TB bis PB – das Ausmaß der Flash-Nutzung variiert gewaltig

KI-Anwendungen wie autonomes Fahren und große Sprachmodelle (LLMs) sind nach Andersons Worten „Vorzeigebeispiele“ für die Verwendung großer Datensätze zum Trainieren von KI-Modellen. Als Beispiel nennt er Teslas Nutzung von mehr als 200 PB an „Hot-Tier-Cache-Kapazität“, wie es der Autohersteller nennt. Anderson merkt jedoch auch an, dass die meisten Unternehmen weitaus kleinere Datensätze für die KI-Entwicklung verwenden. „Die überwiegende Mehrheit der KI/ML-Projekte hat einen Kapazitätsbedarf von (deutlich) weniger als 100 TB.“

Anderson und seine Kollegen bei Panasas gehen davon aus, dass diese typischeren KI-Datensätze zwar wachsen werden, aber nur langsam. Das ist auch gut so, denn Flash ist deutlich teurer als Festplatten, aber seine Nutzung ist für das KI-Training oft unerlässlich. Die Kluft zwischen Festplatten- und Flash-Leistung ist bei KI sogar noch größer als bei anderen Anwendungen, da der Zugriff auf KI-Daten generell zufällig erfolgt. Seit Jahrzehnten kompensieren Speicherhersteller die relativ niedrige Geschwindigkeit, mit der Festplattenlaufwerke semi-zufällige Datenzugriffsanfragen verarbeiten, indem sie heiße Daten oder solche, auf die häufig zugegriffen wird, identifizieren und in sehr schnellen DRAM-Speicher-Lesecaches speichern. „Lesecaching ist sehr hilfreich, wenn auf einen kleinen Prozentsatz der Daten mehrfach zugegriffen wird. KI/ML passt oft nicht zu diesen traditionellen E/A-Zugriffsmustern, was Unternehmen dazu zwingt, für viele KI/ML-Workloads einen weitgehend Flash-basierten Ansatz zu wählen“, so Steven Umbehocker, Gründer und CEO von OSNexus.

Leistung ist nicht der einzige Vorzug von Flash, insbesondere für IoT und den Edge-Bereich

Die Leistung ist nicht der einzige Vorteil, den Flash im Vergleich zu Festplatten bietet, da SSDs weniger Strom verbrauchen und gleichzeitig zuverlässiger sind sowie anspruchsvollen Umgebungen standhalten können. „Bei Anwendungen wie IoT, Edge-Processing und TinyML (maschinelles Lernen am Rande) besteht eine der obersten Design-Prioritäten darin, den Stromverbrauch – sowohl den dynamischen als auch den Stand-by-Stromverbrauch – immer weiter zu senken und gleichzeitig die höchstmögliche Leistung zu gewährleisten. Darüber hinaus ist es für jedes IoT-Design eine weitere Priorität, die Kosten niedrig zu halten“, so Coby Hanoch, CEO und Gründer von Weebit Nano.

Ein weiterer Vorteil ist die Fähigkeit von Flash-Speichern, raue Umgebungen zu überstehen. „Wenn wir die Infrastruktur am Rande von Mobilfunkmasten und anderer lokaler Infrastruktur meinen, dann sind Solid-State-Speicher, insbesondere SSDs, eine eindeutige Grundlagentechnologie, da sie bei extremen Temperaturen besser funktionieren als andere Speichertechnologien, wie etwa Festplattenlaufwerke, die damit Schwierigkeiten hätten“, so Tom Coughlin, Präsident des Analystenunternehmens Coughlin Associates und Mitglied der Compute, Memory and Storage Initiative beim Branchenverband Storage Networking Industry Association (SNIA). Roy Illsley, Chefanalyst des Marktforschungsunternehmens Omdia, hebt eine weitere physikalische Eigenschaft von Flash hervor: „Ein zweiter erwähnenswerter Aspekt ist die Fähigkeit, auf kleinem Raum zu arbeiten. Die KI-Inferenz-Workloads können an entfernten Standorten eingesetzt werden, wenn Flash der Speicher der Wahl ist.“

Dennis Hahn, Principal Analyst bei Omdia, merkt an, dass Flash-Speicher am Edge oft in hyperkonvergenten Infrastrukturen (HCI) eingesetzt wird. „In Anwendungsfällen wie Edge ist die Verarbeitung von Echtzeit-Ergebnissen häufig der Fall, so dass schneller Flash-Speicher lokal bei den Verarbeitungsservern erforderlich ist. Omdia hat bei seinen Untersuchungen festgestellt, dass diese Edge-Systeme häufig HCI-Systeme sind, die SSD-Geräte verwenden.“ Dies bedeutet jedoch nicht, dass IoT-Daten immer in Flash gespeichert werden. „Bei der Datenerfassung im Rahmen des IoT stehen oft die Kosten im Vordergrund, und die Daten werden häufig über das relativ langsame Internet übertragen. Infolgedessen werden häufiger Massenspeicherlösungen wie HDD verwendet. Aber letztendlich kommt Flash wegen seiner Geschwindigkeit ins Spiel, um die IoT-Datenverarbeitung zu ermöglichen.“

Hanoch von Weebit Nano bezieht sich auf die NOR-Variante von Flash, die in System-on-a-Chip-Prozessoren eingebettet ist: „In Geräten, die KI oder ML am Rande ausführen, wird Flash nicht nur für die Code-/Firmware-Speicherung und das Booten verwendet, sondern vor allem auch für die Speicherung der für die KI-Berechnungen erforderlichen, neuronalen Netzwerkgewichte, insbesondere bei neueren NVM-Typen wie ReRAM. Um diese Funktionalität zu unterstützen und gleichzeitig die Kosten und den Stromverbrauch auf ein Minimum zu beschränken, drängen die Designs auf fortschrittlichere Knoten wie 28nm und 22nm, die derzeit der sweet spot für IoT- und Edge-Geräte sind. Dies erfordert NVM, das monolithisch in ein SoC eingebettet ist. Eingebetteter Flash lässt sich jedoch nicht auf 28nm und darunter skalieren, so dass die Entwickler ihn nicht mit anderen Funktionen auf einem einzigen Chip integrieren können. Dies ist eine große Herausforderung bei der Entwicklung dieser kleinen, preiswerten und oft batteriebetriebenen Geräte.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Data-Storage und -Management

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

(ID:50034709)