Umbruch in der Storage-Welt Die Public Cloud im eigenen Rechenzentrum

Von Dr. Jürgen Ehneß

Im Interview erläutert Ralf Steinemann, Geschäftsführer von iTernity, die allgemeinen Probleme der IT-Abteilungen, die Gefahren, denen Daten ausgesetzt sind, warum eine Backup-Software als Schutzmaßnahme heute nicht mehr ausreicht – und wie sich Speicherstrukturen verändern müssen.

Anbieter zum Thema

Das ungebremste Datenwachstum ist eines der dringendsten Probleme der IT-Abteilungen, doch „nicht jede Organisation verwaltet bereits heute hunderte von Terabytes“, weiß Ralf Steinemann.
Das ungebremste Datenwachstum ist eines der dringendsten Probleme der IT-Abteilungen, doch „nicht jede Organisation verwaltet bereits heute hunderte von Terabytes“, weiß Ralf Steinemann.
(Bild: gemeinfrei / Pixabay )

Storage-Insider: Herr Steinemann, iTernity kommt aus dem Bereich der Datenarchivierung. Bei Ihrer Lösung iCAS FS geht es aber auch um die Bereiche Backup und Datenmanagement. Wie hängt das zusammen?

Ralf Steinemann, iTernity: Das hängt vor allem mit den gestiegenen Anforderungen an die IT und dem Wunsch nach weniger Komplexität zusammen. IT-Verantwortliche versuchen ihre Infrastrukturen zu verschlanken und fit für eine schwer planbare Zukunft zu gestalten. Das erfordert Speicherlösungen, welche vielfältige Anwendungsfälle abdecken und ihren Job zuverlässig und ohne Aufwand für die IT erledigen.

Archivierung ist ein wichtiger Anwendungsfall, bei dem sehr komplexe Anforderungen erfüllt werden müssen. Das ist sozusagen iTernitys DNA. Die Expertise im Umgang mit sensiblen Daten und kritischen Infrastrukturen lässt sich sehr gut für weitere Bereiche nutzen, beispielsweise bei der Sicherung von Backups oder der langfristigen Aufbewahrung von Forschungsdaten.

Wie sehen ganz allgemein momentan die größten IT-Probleme Ihrer Kunden aus?

Steinemann: Das sind keine neuen Herausforderungen, sondern seit Jahren Dauerbrenner, welche sich mehr und mehr zuspitzen. Das Datenwachstum ist für nahezu jede Organisation eine Herausforderung. Die IT muss sehr flexibel die Anforderungen aller Geschäftsbereiche umsetzen und alle Möglichkeiten offenhalten.

Diese ungewisse Planbarkeit wird durch das zweite große Problem, den IT-Fachkräftemangel, weiter verschärft. Die Anforderungen an die IT wachsen stetig, die Komplexität der Infrastrukturen nimmt zu, doch die dringend benötigten Experten für die Gestaltung des Wachstums sind rar. Nehmen wir dann noch die dritte Herausforderung hinzu – die omnipräsente Gefahr durch Cyber-Angriffe –, kann es wirklich an die Existenz und Zukunftsfähigkeit von Unternehmen gehen.

Was hat sich diesbezüglich in den vergangenen Monaten geändert? Und welche Branchen stehen aus Ihrer Sicht vor zusätzlichen Herausforderungen?

Steinemann: Die beschriebenen Herausforderungen treffen alle Branchen und Unternehmensgrößen. Naturgemäß haben Branchen und Organisationen mit kritischen Infrastrukturen und sehr sensiblen Daten größeren Druck zur schnellen Lösung der Probleme. Das betrifft beispielsweise das Gesundheitswesen, den Finanzsektor oder den öffentlichen Bereich.

Geändert hat sich vor allem die Dringlichkeit der Probleme. Das „Allianz Risk Barometer 2022“ nennt Cyberangriffe als weltweit größtes Geschäftsrisiko, gefolgt von Betriebsunterbrechungen und Naturkatastrophen. Dadurch rückt das Thema Backup & Recovery an oberste Stelle der IT-Prioritätenlisten. Durch die Covid-Pandemie und smarte Geräte sind es zudem immer mehr Daten, welche gespeichert und geschützt werden müssen. Dabei müssen wir beachten, dass nicht jede Organisation bereits heute hunderte von Terabytes verwaltet, weshalb beim Thema Scale-Out auch die Einstiegsgröße ein wichtiges Kriterium ist.

Ralf Steinemann, Geschäftsführer von iTernity.
Ralf Steinemann, Geschäftsführer von iTernity.
(Bild: iTernity)

In Bezug auf die IT-Security ist Ransomware seit Monaten besonders präsent. Warum ist es für Unternehmen so schwierig, dieses Problem in den Griff zu bekommen?

Steinemann: Zum einen nimmt die Anzahl an Angriffen stetig zu, und die Art der Angriffe wird immer perfider und intelligenter. Zum anderen sind IT-Infrastrukturen heute extrem komplex und vielseitig, wodurch die Angriffsfläche für Ransomware größer wird. Der Schutz vor Ransomware ist mehrschichtig und kann nicht durch eine Wunderlösung erledigt werden. Haben sich Unternehmen in der Vergangenheit oft auf die Backup-Software verlassen, reicht das heute nicht mehr aus. Die Speicherinfrastruktur wird in den nächsten Jahren eine zentrale Rolle beim Thema Cyber-Security einnehmen und muss Hand in Hand mit den Backup-Software-Lösungen gehen.

Als „letzte Verteidigungslinie“ gegen Ransomware wird gewöhnlich Backup angeführt. Doch mittlerweile werden auch Backup-Daten selbst angegriffen. Wie löst man dieses Dilemma?

Steinemann: Backups müssen mit besonderen Schutzmaßnahmen gespeichert werden – Unveränderlichkeit ist hier das zentrale Thema. Backup-Daten müssen unveränderlich gespeichert werden, zum Beispiel mit WORM (Write Once Read Many) oder S3 Object Lock, sodass sie nicht durch Ransomware verschlüsselt oder gelöscht werden können. Nur wenn die Wiederherstellung gesichert ist, kann das Backup als letzte Verteidigungslinie greifen.

Speichersysteme müssen somit von Grund auf so entwickelt werden, dass sie gegen externe und interne Angriffe immun sind. Das bedeutet auch, dass kritische Updates und Patches immer eingespielt werden und die Angriffsfläche minimiert wird.

Welche Gefahren für gespeicherte Daten sehen Sie aktuell über Ransomware hinaus?

Steinemann: Alles, was zu Datenverlust und Betriebsausfällen führen kann. Unternehmen müssen sich beispielsweise viel besser gegen Naturkatastrophen absichern. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) empfiehlt für Georedundanz einen Abstand von 200 Kilometern zwischen den Rechenzentren. Die synchrone Replikation stößt hier beim Thema Latenz an ihre Grenzen, und viele Lösungen können das nicht ausreichend abbilden. Hier ist eine Replikation nötig, welche intelligent zwischen synchron und asynchron wechselt und die Hochverfügbarkeit über weite Distanzen sicherstellt.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Data-Storage und -Management

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Hinzu kommen immer strengere gesetzliche Vorgaben. Einige Daten müssen über 30 Jahre unveränderlich und verfügbar gesichert werden. In dieser Zeit dreht sich die IT-Welt mindestens einmal um 360 Grad, und Daten müssen mehrfach migriert werden. Für die Datenspeicherung sind deshalb sehr flexible Ansätze nötig. Dabei hat sich aus unserer Sicht der Software-basierte Gedanke bewährt.

Man hört und liest häufig darüber, dass jedes Unternehmen alle Daten speichern soll, die entstehen, um in Zukunft daraus neue Geschäftsmodelle zu entwickeln. Wie realitätsbezogen ist diese Forderung?

Steinemann: Realistisch betrachtet sind die meisten Unternehmen davon noch weit entfernt. Laut einer Umfrage unseres Partners HPE befinden sich 64 Prozent der Unternehmen am Anfang, das heißt in den Bereichen Datenanarchie oder Reporting mit historisch gewachsenen Dateninseln. Bei zwei Dritteln der deutschen Unternehmen muss somit erst das Fundament für die Datenwertschöpfung geschaffen werden. Hierfür sind wieder viele der bereits genannten Themen von zentraler Bedeutung: Scale-Out-Architekturen, Flexibilisierung, IT-Sicherheit, Reduktion der Komplexität und vor allem auch Kosteneffizienz und Einfachheit.

Wie müssen sich Storage-Strukturen verändern, um dem ungebremsten Datenwachstum begegnen zu können? Und was sind die Probleme dabei?

Steinemann: Speicherinfrastrukturen müssen flexibel erweiterbar sein und Abhängigkeiten vermeiden, zum Beispiel von bestimmter Hardware oder einzelnen Anbietern. Wichtig ist auch, dass Unternehmen nicht erst mit mehreren Hundert Terrabyte starten können, um eine Scale-Out-Architektur aufzubauen. Die Themen Sicherheit und Datenschutz müssen von Grund auf in die Architektur integriert sein und deren Fundament bilden.

Wichtig ist außerdem, dass mit steigenden Datenmengen nicht auch der Aufwand und die Komplexität exponentiell wachsen. Das ist durch Managed-Services-Angebote möglich, bei denen die Administration, Updates und Erweiterungen durch den Hersteller übernommen werden und die eigene IT den Fokus auf ihre Kernthemen legen kann.

Neben herkömmlichen Storage-Systemen haben sich mittlerweile Cloud-Lösungen etabliert. Viele Unternehmen haben Probleme, die richtige Balance zwischen diesen Modellen zu finden. Wie könnte ein pragmatischer hybrider Ansatz aus Cloud- und On-Prem-Speichern aussehen?

Steinemann: Die Public Cloud hat die IT-Welt ordentlich umgekrempelt und vorangebracht. Ein kompletter Umstieg auf die Public Cloud ist jedoch schwer zu vollziehen und nur selten sinnvoll. Viele Anwendungen sind nicht „cloud-ready“, das Management und die Kosten werden oft unterschätzt, und die Datenhoheit geht verloren.

Die Vorteile der Public Cloud sind heutzutage jedoch auch im eigenen Rechenzentrum umsetzbar – bei absoluter Datenkontrolle, geringeren Kosten und weniger Aufwand für die IT. Wir sprechen hierbei von „Cloud Experience On-Premises“. Die Enterprise Strategy Group hat die Gesamtkosten der führenden Public-Cloud-Speicher mit unserer iCAS-FS-Speicherplattform verglichen. Das Ergebnis: mindestens 53 Prozent geringere Kosten und 61 Prozent weniger Aufwand – mit iCAS FS. Und dabei wurden Zusatzkosten der Cloud, zum Beispiel für den Datenzugriff oder eine performante Internetleitung, gar nicht mit einbezogen.

Auch das Bezugsmodell der Public Cloud kann auf Speicherlösungen im eigenen Rechenzentrum übertragen werden. Mit Lösungen wie HPE GreenLake kann die Speicherinfrastruktur und vieles mehr in einem „As-a-service“- oder „Pay-per-use“-Modell umgesetzt und die hybride Cloud zentral verwaltet werden.

In den vergangenen Jahren ist der Kostendruck für Unternehmen und speziell für IT-Abteilungen gestiegen. Wo sehen Sie kurzfristig Einsparpotential? Und wo langfristig?

Steinemann: Kurzfristiges Einsparpotential liegt in der verwendeten Speicher-Hardware. Mit Software-basierten Lösungen können Unternehmen auf kostengünstige Standard-Hardware setzen und technologische Entwicklungen einfacher mitnehmen. Auch eine Entlastung der teuren Primärspeicher bringt schnelle Einsparungen.

Ein weiterer wichtiger Aspekt ist der Zeitaufwand. Unternehmen sollten stärker auf Automatisierung und Autonomie ihrer Systeme setzen. Viele Alltagsaufgaben der IT können automatisiert werden und benötigen keine Aufmerksamkeit der Administratoren. So kann die knappe Ressource Mensch bestmöglich für wichtige und kreativere Tätigkeiten eingesetzt werden – was nebenbei auch mehr Spaß macht.

Langfristig zahlen sich Investitionen in die IT-Sicherheit und den Ransomware-Schutz aus, da das Worst-Case-Szenario nach einem Ransomware-Angriff immer teurer ist als die Prävention und Vorbereitung.

Auch der transparente und ehrliche Blick auf die Public-Cloud-Kosten und Einsatzzwecke kann sich für Unternehmen ausbezahlen. Wie bereits erwähnt, lassen sich die Gesamtkosten laut einer ESG-Berechnung hier mehr als halbieren!

Aktuelles eBook

Speichertechnologien im Vergleich

HDD, Flash & Hybrid: Der passende Speicher für jeden Einsatz

eBook HDD, Flash und Hybrid
eBook „HDD, Flash & Hybrid“
(Bild: Storage-Insider)

In diesem eBook lesen Sie, welche verschiedenen Speicher es gibt und welche Vor- und Nachteile diese haben.

Die Themen im Überblick:

  • Der passende Speicher für jeden Einsatz – HDD, SSD und Tape
  • HDDs: Heimvorteil und neue Technologien
  • Flash-SSDs & Co.: wie ein geölter Blitz
  • Storage-Arrays unter die Haube geschaut – SSD, HDD und Hybrid
  • Tape: die Kunst der Langzeitarchivierung

(ID:48112064)