Mobile-Menu

Speicherarchitekturen im Wandel bei Pure Storage Security, Virtualisierung und KI: Das sind die Baustellen

Von Paula Breukel 4 min Lesedauer

Anbieter zum Thema

Datenarchitekturen stehen vor einem Umbruch. Patrick Smith von Pure Storage erläutert, wie Storage-Strategien sich neu ausrichten – von Ransomware-Abwehr über Virtualisierung bis hin zu Enterprise-KI.

Patrick Smith, Fied CTO EMEA bei Pure Storage, kann aufgrund seines beruflichen Werdegangs die Kundenprobleme gut nachvollziehen. Früher war er auf der Kundenseite, und heute kann er sein technisch fundiertes Wissen als CTO weitergeben.(Bild:  Pure Storage)
Patrick Smith, Fied CTO EMEA bei Pure Storage, kann aufgrund seines beruflichen Werdegangs die Kundenprobleme gut nachvollziehen. Früher war er auf der Kundenseite, und heute kann er sein technisch fundiertes Wissen als CTO weitergeben.
(Bild: Pure Storage)

Patrick Smith ist als Field Chief Technology Officer (CTO) bei Pure Storage für die EMEA-Region tätig. Rund die Hälfte seiner Arbeitszeit verbringt er bei Kunden vor Ort – nicht im klassischen Vertrieb, sondern als technischer Ansprechpartner auf Augenhöhe. Smith war früher selbst auf der Kundenseite, zuletzt war er bei der Deutsche Bank als Head of Core Engineering tätig. Im Gespräch mit Storage-Insider erläutert der CTO, worauf es bei der Wahl der Storage-Strategie tatsächlich ankommt und wo Gefahren lauern.

„Viele Unternehmen verfolgten vor der Pandemie eine Cloud-only-Strategie. Danach setzte ein Umdenken ein: Heute dominieren hybride Multi-Cloud-Modelle, bei denen der Ort der Workloads – Cloud oder On-Premises – bewusst gewählt wird“, hat Smith beobachtet. Diese Rückbesinnung auf architektonische Kontrolle erfordere neue Kompetenzen – insbesondere im Storage-Bereich.

Cyber-Resilienz: Snapshots reichen nicht mehr

Die Anforderungen an Cyber- und Betriebssicherheit nehmen sowohl durch neue Bedrohungslagen als auch durch verschärfte regulatorische Vorgaben zu. Smith nennt hier etwa DORA (Digital Operational Resilience Act) auf EU-Ebene und nationale Regelwerke für kritische Infrastrukturen.

„Viele IT-Teams verlassen sich noch immer auf Verfahren, die vor zehn Jahren als ausreichend galten. Etwa synchrones Replizieren zwischen Rechenzentren, klassische Backup-Zyklen oder Standortredundanz“, erklärt Smith. Doch bei gezielten Ransomware-Angriffen greifen diese Strategien zu kurz. Zwei identische Kopien verschlüsselter Daten seien kein Schutz. „Was früher funktionierte, reicht heute nicht mehr.“

Auch organisatorisch sei ein Umdenken nötig: Die Verantwortung für resiliente Architekturen dürfe nicht allein bei CISOs liegen. Auch Admin-Teams müssten ihren Teil beitragen. Insbesondere „Storage-Admins müssen verstehen, wie sich Snapshot-Retention, Löschfristen und Backup-Integrität auf die gesamte Sicherheitslage auswirken“.

Virtualisierung: Der Markt wird dezentral

Ein weiteres Thema, das Smith in fast jedem Kundengespräch begegnet, ist die künftige Virtualisierungsstrategie – auch bedingt durch die Entwicklungen rund um VMware. Zwar sieht er Pure Storage weiterhin als engen Partner von Broadcom, verweist aber auf eine zunehmende Nachfrage nach alternativen Szenarien.

Dabei geht es laut Smith um mehr als nur einen Anbieterwechsel: Der Trend gehe zu disaggregierten Architekturen, bei denen Compute und Storage getrennt skaliert werden. Dieses Prinzip sei nicht nur bei VMware verankert, sondern inzwischen auch bei Nutanix angekommen. Mit der neuen Partnerschaft wolle Pure Storage Unternehmen dabei unterstützen, Virtualisierung flexibler zu gestalten – unabhängig von einzelnen Plattformen.

Pure Storage arbeitet mit Nutanix, Red Hat und OpenStack zusammen, um Alternativen zu klassischen Hypervisor-Stacks zu adressieren. Im Fokus stehen Kubernetes-basierte Modelle wie „KubeVirt“ – also die Ausführung virtueller Maschinen innerhalb nativer Kubernetes-Umgebungen. Auch OpenStack gewinnt laut Smith vor allem im Telko-Segment an Relevanz als Virtualisierungsplattform.

„Viele Kunden wollen heute Optionen prüfen und sich technologisch breiter aufstellen“, sagt Smith. Dafür müssten Speicherlösungen abstrahiert, portabel und unabhängig vom Hypervisor nutzbar sein.

KI-Workloads: Plattformdesign statt Modelltraining

Obwohl Künstliche Intelligenz (KI) aktuell das Thema schlechthin ist, sieht Smith sie erst an dritter Stelle auf der Agenda. Der Grund: Viele Unternehmen seien mit dem operativen KI-Einsatz beschäftigt – nicht mit Training großer Foundation-Modelle. Ein zentraler Aspekt beim Einstieg in „Enterprise AI“ ist die Integration in bestehende KI-Stacks.

Hier kommt das aktualisierte Produktportfolio von Pure Storage ins Spiel. Während „FlashBlade“ seit 2017 für analytische Workloads ausgelegt ist, wurde auf der „Pure//Accelerate 2025“ in Las Vegas die skalierbare Version „FlashBlade//XA“ vorgestellt – für große Datenmengen, parallelen Zugriff und hohe Resilienz.

Ein zentraler Aspekt ist die Integration in bestehende KI-Stacks. Pure setzt auf zertifizierte Referenzarchitekturen, etwa mit Nvidia BasePOD und SuperPOD, um Kunden den Einstieg zu erleichtern. Ziel sei ein vollständig orchestrierbares System, das Compute, Storage und GPU-Layer verbindet.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Data-Storage und -Management

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Multi-Cloud-Strategien: Rückverlagerung mit System

Die Beobachtung, dass Workloads in die eigene Infrastruktur zurückwandern („Cloud-Repatriation“), bestätigt auch Smith. Hauptgründe seien Kostenkontrolle, Performance-Ansprüche und das Prinzip der Data-Gravity – also die physische Nähe von Daten und Rechenleistung.

Um in hybriden Szenarien handlungsfähig zu bleiben, setzt Pure Storage auf Portworx, eine Speicherplattform für containerisierte Umgebungen. Damit lassen sich Daten persistent verwalten. Und das Ganze unabhängig davon, ob ein Kubernetes-Cluster in der Cloud oder On-Prem betrieben wird. Die Platzierungsentscheidung folgt dann regulatorischen, wirtschaftlichen oder technischen Kriterien.

Auf die Debatte um den CLOUD Act reagiert Smith diplomatisch: Es gehe nicht um die Herkunft des Anbieters, sondern um die freie Wahl des Standorts. Entscheidend sei, eine offene, portierbare Architektur zu schaffen – damit sich regulatorische Anforderungen unabhängig vom Deployment-Ort erfüllen ließen.

Modulare Enterprise Data Cloud für hybride Infrastrukturen

Pure Storage verfolgt eine orchestrierbare Infrastrukturstrategie, die Speicher, Compute und GPU-Ressourcen modular verbindet. „Wir sehen Parallelen zu Hyperscalern, doch unser Fokus liegt darauf, den Kunden maximale Kontrolle zu geben“, erklärte Smith. Das Konzept soll Standardisierung und Wiederholbarkeit mit Flexibilität für hybride und Multi-Cloud-Umgebungen vereinen.

Die „Enterprise Data Cloud“ ermögliche es Unternehmen, Datenhaltung und Rechenleistung getrennt und dennoch nahtlos zu skalieren. Smith ergänzt: „Es geht nicht um den Anbieter, sondern darum, die Workloads am richtigen Ort mit den passenden Governance- und Performance-Anforderungen zu betreiben.“ So ließen sich regulatorische Vorgaben und Wirtschaftlichkeit effizient umsetzen.

Lebenszyklen und Nachhaltigkeit: Evergreen als Antwort

In der Diskussion um Nachhaltigkeit verweist Smith auf die technologische Basis von Pure Storage. Statt marktüblicher SSDs setzt das Unternehmen auf sogenannte Direct Flash Modules (DFMs) – Flash-Bausteine, die direkt durch Pure-eigene Software angesprochen werden. Das ermögliche systemweites Wear-Leveling und senke die Ausfallraten deutlich.

Zudem erlaube das modulare „Evergreen“-Modell eine fortlaufende Modernisierung ohne vollständigen Systemaustausch. Hardwarekomponenten würden nach Bedarf ausgetauscht – nicht nach Ablauf eines Supportvertrags. Das reduziere nicht nur den Elektroschrott, sondern steigere auch die Betriebssicherheit, so der CTO.

(ID:50469772)