Daten sind der Rohstoff der Digitalisierung – und sie wachsen schneller, als viele IT-Abteilungen mithalten können. Ob in der Industrie, im Gesundheitswesen oder bei Behörden: Neue Anwendungen, vernetzte Geräte und KI-gestützte Prozesse erzeugen immer größere Datenmengen.
Die Speicherinfrastruktur sollte in Unternehmen als strategisches Thema behandelt werden, fordert Paul Höcherl von Lenovo im Gastbeitrag.
(Bild: Midjourney / KI-generiert)
Gleichzeitig fehlen in vielen Unternehmen und Institutionen die Fachkräfte, um diese Datenflut zu bändigen. Bis 2040 sollen laut Bitkom in Deutschland mehr als 663.000 IT-Fachkräfte in Deutschland fehlen.
Speicherumgebungen sind davon besonders betroffen. Storage-Administratoren, die früher ganze SANs von Hand aufsetzten und pflegten, werden zunehmend zur Ausnahme. Das macht ausgerechnet die Speicherinfrastruktur, also das Rückgrat der Datenverarbeitung, zur Schwachstelle im System: schwer skalierbar, anfällig für Fehler, teuer im Betrieb. Dabei geht es längst nicht mehr nur um Kapazität – gefragt ist eine Infrastruktur, die performant, verfügbar, sicher und zugleich überschaubar bleibt. Und zwar auch dann, wenn keine Fachkraft in Reichweite ist.
Doch genau daran hapert es in vielen Rechenzentren. Die Speicherlandschaft ist historisch gewachsen: Systeme wurden über Jahre ergänzt oder ersetzt – abhängig von Projektbedarf, Herstellerbindung und Budget. Zurück bleibt häufig eine heterogene Infrastruktur: Fibre Channel und iSCSI laufen parallel, Netzwerk- und Blockspeicher sind vermischt, ältere Systeme stehen neben modernen Flash-Arrays.
Diese Heterogenität bringt vor allem eines: Komplexität. Jede Plattform hat eigene Tools, eigene Logik, eigene Befehle. Provisionierung, Fehleranalyse oder Performance-Tuning – vieles läuft manuell oder erfordert individuelle Skripte. In kleinen IT-Teams bedeutet das: Wer den einen Storage-Stack versteht, kommt beim nächsten schon nicht mehr weiter.
Noch gravierender ist die fehlende Übersicht. Viele Administratoren wissen nicht genau, wo welche Workloads liegen, wie hoch die Auslastung ist oder ob sich Fehler anbahnen. Ohne zentrale Sicht und automatisierte Prozesse drohen Ausfälle, Engpässe – oder schlicht ineffiziente Nutzung teurer Ressourcen.
Weniger Vielfalt mehr Durchblick
Technisch vielfältige Speicherumgebungen bringen nicht automatisch Vorteile – im Gegenteil: Unterschiedliche Protokolle, Schnittstellen und Verwaltungswerkzeuge erhöhen den Betriebsaufwand und bremsen den Fortschritt. Wer Speicher skalieren will, braucht deshalb eine konsistente Architektur und klar definierte Standards.
Ein zentraler Ansatzpunkt zur Vereinfachung liegt in der Auswahl und Vereinheitlichung der Protokolle. Fibre Channel bleibt in vielen Rechenzentren Standard, insbesondere für hochverfügbare Blockspeicheranwendungen. Parallel dazu setzen sich NVMe-basierte Architekturen zunehmend durch – mit Varianten wie NVMe over Fibre Channel oder NVMe over TCP.
Diese Protokolle ermöglichen eine deutlich höhere parallele Datenverarbeitung und senken die Latenz im Zugriff auf Flash-Speicher. Sie lassen sich in bestehende Umgebungen integrieren und bieten damit einen Weg zur technischen Modernisierung ohne vollständigen Systemaustausch.
Auch auf Systemebene kann eine Konsolidierung Vorteile bringen. Unified-Storage-Lösungen, die Block-, Datei- und Objektspeicher auf einer Plattform bündeln, verringern die Vielfalt an Verwaltungsschnittstellen und reduzieren operative Aufwände. Das erleichtert den Betrieb – gerade in IT-Teams mit begrenzten Ressourcen.
Automatisierung entlastet knappe IT-Ressourcen
Wenn IT-Teams unterbesetzt sind, wird jeder manuelle Handgriff zur Belastung. Speicher bereitstellen, Volumes zuweisen, Zugriffskontrollen setzen, Lasten verschieben – was früher mit wenigen Befehlen erledigt wurde, skaliert heute nicht mehr. Automatisierung ist deshalb kein Zukunftsthema, sondern eine Antwort auf den akuten Fachkräftemangel.
Moderne Speicherplattformen bieten vielfältige Möglichkeiten, repetitive Aufgaben zu automatisieren. Dazu gehören etwa die automatische Zuweisung von Speicherzonen, das regelbasierte Verschieben von Daten auf unterschiedliche Medien (Tiering) oder die dynamische Bereitstellung von Volumes für virtuelle Maschinen und Container.
Viele dieser Funktionen lassen sich heute über grafische Verwaltungsoberflächen oder Programmierschnittstellen (APIs) automatisieren. Sie können in bestehende Orchestrierungs- und Verwaltungssysteme eingebunden werden, um Speicherressourcen effizient bereitzustellen und zu verwalten. So wird die tägliche Arbeit nicht nur schneller, sondern auch weniger fehleranfällig.
Auch KI-gestützte Funktionen kommen vermehrt zum Einsatz. Sie helfen dabei, Muster in der Nutzung zu erkennen, Auslastungsspitzen vorherzusagen oder mögliche Störungen frühzeitig zu identifizieren. Solche vorausschauenden Analysen entlasten Teams, ohne dass sie selbst als „KI“ sichtbar wären – sie sind in viele Management-Tools integriert und arbeiten im Hintergrund.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Automatisierung ersetzt keine Fachkräfte, aber sie sorgt dafür, dass knappe Ressourcen dort eingesetzt werden können, wo sie wirklich gebraucht werden – bei Planung, Sicherheit und Architekturentscheidungen.
Ohne Sichtbarkeit keine Skalierung
Transparenz ist die Voraussetzung für stabile Speicherinfrastruktur. Wer nicht weiß, wo Daten liegen, wie Systeme ausgelastet sind oder ob sich Fehler ankündigen, handelt oft erst, wenn es zu spät ist.
Moderne Speichersysteme liefern heute viele Informationen – sogenannte Telemetriedaten. Diese zeigen zum Beispiel, wie schnell Daten gelesen oder geschrieben werden, ob bestimmte Anwendungen das System stark beanspruchen oder ob einzelne Verbindungen zu langsam sind. Wichtig ist, dass diese Daten übersichtlich dargestellt und leicht auswertbar sind – zum Beispiel in Dashboards oder automatisch generierten Warnmeldungen.
Solche Informationen lassen sich in vorhandene Analyse- oder Visualisierungssysteme integrieren. So behalten IT-Teams die gesamte Infrastruktur im Blick – von der Anwendung bis zur Speicherkomponente.
Diese Durchsicht ist entscheidend: Nur wenn alle Komponenten gemeinsam betrachtet werden, lassen sich Fehler schnell erkennen und beheben. Gleichzeitig hilft die Transparenz, die Speicherleistung optimal zu nutzen – und verhindert, dass teure Ressourcen ungenutzt bleiben.
Speicher ist nicht nur ein technisches Element – er ist oft das letzte Rückgrat, wenn Systeme versagen. Umso wichtiger ist, dass Sicherheit und Ausfallschutz von Anfang an mitgeplant werden. Denn wer im Notfall auf improvisierte Lösungen angewiesen ist, riskiert Datenverlust, lange Wiederherstellungszeiten oder Angriffsflächen für Cyberkriminelle.
Ein zentraler Baustein ist der Schutz vor Ransomware. Immer mehr Speicherplattformen bieten heute die Möglichkeit, sogenannte „immutable Snapshots“ zu erstellen – Momentaufnahmen von Daten, die nicht nachträglich verändert oder gelöscht werden können. Diese Schnappschüsse lassen sich automatisiert und in kurzen Intervallen erzeugen – ein wirksamer Schutzmechanismus, wenn Angreifer Daten verschlüsseln oder löschen wollen.
Auch die Wiederherstellung nach einem Ausfall kann automatisiert werden. Moderne Systeme erlauben es, Replikate an entfernten Standorten aufzubauen, Failover-Prozesse vorzudefinieren und Wiederanläufe zu testen – ohne den laufenden Betrieb zu gefährden. Wichtig ist dabei, dass solche Funktionen nicht nur auf dem Papier existieren, sondern in die tägliche Systempflege eingebunden sind.
Sicherheit bedeutet auch, den Zugriff auf Speicherressourcen klar zu regeln. Authentifizierungsmechanismen, Verschlüsselung und rollenbasierte Zugriffsmodelle sind heute Standard – und sollten konsequent genutzt werden, um ungewollte Zugriffe oder Fehlkonfigurationen zu verhindern.
Planung schlägt Personal
Speicherinfrastruktur lässt sich heute nicht mehr allein durch mehr Technik oder mehr Personal beherrschen. Entscheidend ist, wie konsequent die vorhandenen Ressourcen genutzt und verwaltet werden. Wer frühzeitig auf konsistente Architekturen, durchdachte Automatisierung und transparente Systeme setzt, schafft die Basis für ein Rechenzentrum, das mitwachsen kann – auch wenn das IT-Team klein bleibt.
Viele Technologien, die dafür nötig sind, stehen längst bereit: moderne Protokolle, automatisierte Abläufe, intelligente Überwachung, integrierte Sicherheitsmechanismen. Sie helfen dabei, den Betrieb zu vereinfachen, Fehler zu vermeiden und schneller auf neue Anforderungen zu reagieren.
Statt auf punktuelle Erweiterungen oder kurzfristige Notlösungen zu setzen, lohnt es sich, Speicherinfrastruktur als strategisches Thema zu behandeln. Denn stabile, flexible und beherrschbare Speicherumgebungen sind nicht nur die Grundlage für digitale Prozesse – sie sind ein entscheidender Wettbewerbsfaktor in Zeiten knapper IT-Ressourcen.
* Der Autor: Paul Höcherl, Product Manager bei Lenovo ISG
Aktuelles eBook
Storage für HPC & KI
eBook „Storage für HPC & KI“
(Bild: Storage-Insider)
Speichersysteme für das HPC und für die verschiedenen Disziplinen der KI sind hohen Anforderungen ausgesetzt. Denn sie müssen enorme Datenmengen in kürzester Zeit bereitstellen oder sammeln. Wie können diese Herausforderungen gemeistert werden?
Die Themen im Überblick:
Aktuelle Trends in der Künstlichen Intelligenz
High-Performance Computing – Explosion der Innovationen