Eine sichere Datenschicht als effektive Maßnahme gegen Ransomware Schichtbetrieb für mehr Sicherheit

Von Roland Rosenau*

Für die bevorstehenden Feiertage Ende des Jahres besteht aus Sicht des Bundesamts für Sicherheit in der Informationstechnik (BSI) und des Bundeskriminalamtes (BKA) ein erhöhtes Risiko für Cyberangriffe auf Unternehmen und Institutionen. Sicherheitsexperten machen hierfür die erneute Verbreitung von Emotet-Spam sowie das aktive öffentliche Werben von Ransomware-Banden um kriminelle Mitstreiter.

Firmen zum Thema

Ransomware-Verbrecher erpressen immer mehr Unternehmen. Roland Rosenau von Rubrik erläutert, wie man diesem unseligen Treiben einen Riegel vorschieben kann.
Ransomware-Verbrecher erpressen immer mehr Unternehmen. Roland Rosenau von Rubrik erläutert, wie man diesem unseligen Treiben einen Riegel vorschieben kann.
(Bild: © kentoh - stock.adobe.com)

Die weiterhin bestehende Verwundbarkeit vieler Microsoft-Exchange-Server in Deutschland trägt ebenfalls zum erhöhten Risikolevel bei. Das BSI sieht darin ein bedrohliches Szenario und rät Unternehmen und Institutionen eindringlich, angemessene IT-Sicherheitsmaßnahmen umzusetzen.

Wenn Unternehmen von Ransomware angegriffen werden, sind jedoch nur etwas mehr als die Hälfte in der Lage, ihre Daten mithilfe eines Backups wiederherzustellen. Das wirft die Frage auf: Was ist mit dem Rest? Warum können sie ihre Daten nicht wiederherstellen? Ein Grund könnte sein, dass ihre Sicherungsdaten kompromittiert wurden. Backups sind ein beliebtes Ziel für Hacker. Wenn Angreifer an die Backup-Daten eines Unternehmens herankommen, haben sie weitaus mehr Einflussmöglichkeiten. Die Daten in den Backups sind im Grunde die Schlüssel zum Königreich – und potenziell äußerst profitabel, da die Opfer im Falle einer Kompromittierung eher bereit sind, viel Geld zu zahlen.

Unternehmen können sich besser aufstellen im Kampf gegen Ransomware, indem sie eine Schutzschicht nutzen, die speziell für die Sicherheit ihrer Backup-Daten entwickelt wurde. Gemäß den Prinzipien des Zero-Trust-Frameworks hilft eine derartige sichere Datenschicht dabei, die Exposition gegenüber nicht vertrauenswürdigen Benutzern zu verhindern, und schützt vor böswilliger Verschlüsselung, Änderung oder Löschung von Daten. Zero Trust Data Management folgt den NIST-Prinzipien von Zero Trust für jeden, der mit Daten interagiert. Das bedeutet, mit der Annahme zu arbeiten, dass niemand vertrauenswürdig ist: kein Benutzer, keine Anwendung und kein Gerät. Um diesen Standard zu erfüllen, müssen die Daten von Haus aus unveränderlich sein, sodass sie niemals durch Ransomware verändert, verschlüsselt oder gelöscht werden können. Das bedeutet, dass die Daten jederzeit verfügbar sind, damit Unternehmen die benötigten Daten wiederherstellen können und kein Lösegeld zahlen müssen.

Der Secure Data Layer ist Teil der Zero-Trust-Data-Security-Architektur, die entwickelt wurde, um Backup-Daten verfügbar zu halten. Die Architektur weist drei Designmerkmale auf: erstens eine Verschlüsselung der Daten im Ruhezustand und in Bewegung, um die Offenlegung von Daten zu verhindern; zweitens ein unveränderliches Dateisystem, das sich nur auf Anhänge bezieht, um sicherzustellen, dass die Daten nie verändert werden; und drittens ein selbstheilendes Design mit Fehlertoleranz, um Daten kontinuierlich verfügbar zu halten.

Verschlüsselung im Ruhezustand und in Bewegung

Bei modernen Datenmanagementlösungen werden die Daten in Bewegung und im Ruhezustand verschlüsselt. Die Verschlüsselung in Bewegung ist von entscheidender Bedeutung, wenn damit zur Unterstützung der langfristigen Archivierung und Replikation Daten verschoben werden. Daher müssen alle Anfragen an die Plattform, entweder über die UI oder einen RESTful-API-Endpunkt, authentifiziert und autorisiert sowie während der Übertragung vollständig über den Industriestandard HTTPS/TLS (TLS 1.2+) verschlüsselt sein. Auf diese Weise ist der gesamte Datenverkehr nicht nur zwischen Kundenumgebungen und der Data-Management-Plattform, sondern auch zu Drittsystemen (zum Beispiel bei der Archivierung zu Public-Cloud-Storage-Providern) während der Übertragung sicher.

Moderne Lösungen verschlüsseln die Daten auch, wenn sie in das System geschrieben werden. Hierbei kommt AES-Verschlüsselung (Advanced Encryption Standard) zum Einsatz, um alle Kundendaten im Dateisystem zu schützen, einschließlich Metadaten, Logs und generierte Statistiken. AES ist die erste und einzige öffentlich zugängliche Chiffre, die in den USA von der NSA (National Security Agency) zum Schutz streng geheimer Informationen zugelassen wurde. Als zusätzliche Sicherheitsmaßnahme wird eine AES-256-Bit-Verschlüsselung verwendet.

Als weitere Sicherheitsebene bietet eine zeitgemäße Datenmanagementlösung optional selbstverschlüsselnde Laufwerke (Self-Encrypting Drives, SED) an, eine Funktion, die besonders für Sektoren wie Finanzdienstleistungen wichtig ist. Anstatt dass das System die Verschlüsselung der Daten innerhalb der Software durchführt, nutzen selbstverschlüsselnde Laufwerke die Firmware des Laufwerks, um die Verschlüsselung durchzuführen. Jedes selbstverschlüsselnde Laufwerk verwendet ein Passwort, um einen einmaligen Data Encryption Key (DEK) zu erzeugen.

Systeme für Zero Trust Data Management sind auch nach FIPS 140-2 Level 2 zertifiziert. Zeitgemäße Appliances haben einen eingebauten Trusted-Platform-Module-Chip (TPM), um Verschlüsselungscodes, die verschlüsselte Laufwerke entsperren können, zu erzeugen, zu speichern und zu schützen. Insgesamt bietet die Kombination aus erstens Datenverschlüsselung während der Übertragung zwischen Standorten oder Clouds und zweitens Verschlüsselung im Ruhezustand die Gewissheit, dass Daten sicher und geschützt sind, egal, wo sie sich befinden. Die Daten sind niemals für nicht vertrauenswürdige Benutzer zugänglich.

Append-Only-Dateisystem

Im Gegensatz zu anderen Diensten, die auf standardmäßigen, offenen Dateisystemen aufgebaut sind, bei denen die Daten anfällig für Änderungen (und mögliche böswillige Manipulationen) sind, gibt es noch einen anderen Ansatz. Das unveränderliche Append-Only-Dateisystem, in dem aufgenommene Anwendungen und Daten nicht durch externe oder interne Operationen verändert werden können, lässt sich mit einem Zero-Trust-Design kombinieren. Standardmäßig wird der Zugriff verweigert, und Operationen können nur über authentifizierte APIs durchgeführt werden. IT-Teams können schnell und mit minimaler Geschäftsunterbrechung den letzten sauberen Zustand wiederherstellen.

Das proprietäre verteilte Dateisystem stellt die Verfügbarkeit sicher, indem es mehrere speziell entwickelte Methoden zum Schreiben von Daten auf die Festplatte und zum Umgang mit Hardwareausfällen verwendet.

Schreiben von Daten auf die Festplatte

Ein anwendungsbewusstes Dateisystem weiß, dass es Snapshot-Ketten speichert, die von der Datenmanagement-Engine verwendet werden. Somit ist klar, dass die erfassten Daten-Snapshots unveränderlich sind. Wenn Daten auf die Festplatte geschrieben werden, erlaubt das Append-Only-Dateisystem das Hinzufügen von Daten zu einer Datei, aber niemals das Löschen.

Methoden zur Überprüfung der Datenintegrität werden während des gesamten Lebenszyklus der Daten durchgeführt, um sicherzustellen, dass die Daten niemals verändert werden. Wenn Daten in das Dateisystem gelangen, erstellt das System sogenannte Prüfsummen, um zu verhindern, dass physische Festplatten keine absolute Datenintegrität bieten. Prüfsummen prüfen immer, ob sich etwas geändert hat, und stellen eine kompakte Signatur eines größeren Datenbestandes dar, mit deren Hilfe dessen Integrität überprüft werden kann. Cyclic Redundancy Checks (CRCs) überprüfen zunächst, dass sich im Hintergrund nichts geändert hat, und validieren dann auch den Lesepfad. Ein modernes Datenmanagementsystem verwendet im Wesentlichen Prüfsummen, um sicherzustellen, dass die Daten, die man wiederherstellt, dieselben Daten sind, die man gesichert hat. Sollte das System jemals eine Anomalie feststellen, kann diese einfach verworfen werden, so dass das System replizieren kann.

Automatische Selbstheilung und Fehlertoleranz

Ein wichtiger Punkt, den es bei einer Datenmanagementlösung zu berücksichtigen gilt, ist die Frage: Was passiert, wenn ein Knoten verloren geht? Mehr noch: Wie lässt sich sicherstellen, dass dadurch keine Daten verloren gehen? Wenn der Cluster die Daten nicht neu repliziert, können die Daten verloren gehen oder nicht in einem sicheren Zustand gehalten werden.

Ein speziell für die Speicherung und Verfolgung mehrerer Datenversionen entwickeltes Dateisystem verwendet eine masterlose Shared-Nothing-Architektur, die Engpässe und Single Points of Failure ausschließt. Es ist auch für die Web-Skalierung ausgelegt und skaliert linear mit der Anzahl der hinzugefügten Knoten, wobei die Cluster-Operationen sich selbst heilen, so dass kein Knoten als Master in einem Cluster fungiert, der permanent mit der Verwaltung von Aufgaben im gesamten Cluster betraut ist. Wenn also ein Knoten ausfällt, sorgt das masterlose System dafür, dass die verbleibenden Knoten einen Anführer auswählen und weiterarbeiten. Auf diese Weise haben Unternehmen immer eine wiederherstellbare Kopie ihrer Daten.

Im Falle eines Ransomware-Angriffs kann die Wiederherstellungsfunktion feststellen, wo Dateien und Anwendungen verschlüsselt wurden, und dann auf den letzten bekannten intakten Snapshot zurücksetzen. Administratoren können sich darauf verlassen, dass der in das Dateisystem geschriebene Snapshot nicht verändert wurde, so dass sie mit größerer Sicherheit einen sauberen Zustand ohne Ransomware wiederherstellen können.

Umgang mit Hardware-Ausfällen – Fehlertoleranz durch Redundanz

Bei der Behandlung von Hardware-Ausfällen ist es wichtig, dass Unternehmen ihre Daten auf einem fehlertoleranten und verteilten Dateisystem speichern, damit sie immer ein sauberes, verfügbares Backup haben. Wenn Cluster-Hardware wie Festplattenlaufwerke oder andere Komponenten innerhalb des Clusters beschädigt werden oder ausfallen, bemerkt das System, dass etwas schiefgelaufen ist, und repliziert die Daten neu, um einen Datenverlust zu verhindern.

Im Falle eines Hardware- oder Festplattenfehlers greifen automatische Selbstheilungsmechanismen, die auf intelligente Weise Datensätze auf verfügbaren Festplatten wiederherstellen. Selbst wenn ein Cluster-Knoten ausfällt, verringert das Web-Scale-Design die Wahrscheinlichkeit von gleichzeitigen Knotenausfällen in großen, verteilten Systemen. Bevor ausgefallene Festplatten ersetzt werden, ist der Cluster auch gegenüber weiteren Ausfällen tolerant, sofern genügend Kapazität vorhanden ist. Wenn die ausgefallenen Festplatten ersetzt werden, wird diese Kapazität automatisch wieder in das System eingefügt, und die Daten werden wieder ausgeglichen.

Fehlertoleranz wird durch Redundanz erreicht, das heißt durch die Speicherung zusätzlicher Informationen über die Daten auf verschiedenen Laufwerken, um eine vollständige Wiederherstellung im Falle eines Ausfalls zu ermöglichen. Je mehr Redundanz hinzugefügt wird, desto größer ist die Fehlertoleranz. Der Preis der Redundanz ist jedoch ein erhöhter Speicher-Overhead. Jedes Dateisystem muss diesen Kompromiss zwischen Verfügbarkeit und Overhead eingehen. Ein Ansatz besteht darin, eine Löschcodierungstechnik zu nutzen, die den Kompromiss zwischen dem Overhead der Speicherredundanz und der Verfügbarkeit angeht. Bei der Löschcodierung werden redundante Daten auf eine Weise gespeichert, die eine vollständige Wiederherstellbarkeit bei Ausfällen von Speichergeräten gewährleistet.

Jetzt die eigene Sicherheitslage auf den Prüfstand stellen

Roland Rosenau, SE Manager EMEA Central and West bei Rubrik.
Roland Rosenau, SE Manager EMEA Central and West bei Rubrik.
(Bild: Rubrik)

Unternehmen müssen sich aktuell Gedanken um ihre eigene Sicherheitslage machen: Wenn sie von Ransomware angegriffen würden, welche Änderungen würden sie im Nachhinein an ihren Backup- und Wiederherstellungsprozessen vornehmen? Wenn die richtigen Zero-Trust-Prinzipien, einschließlich einer sicheren Datenschicht, vorhanden sind, verlieren Hacker das Druckmittel, das sie brauchen, um Unternehmen zur Zahlung des Lösegelds zu bewegen. Am besten ist es, diese Sicherheitsmaßnahmen jetzt proaktiv zu implementieren, bevor ein Angriff tatsächlich stattfindet.

*Der Autor: Roland Rosenau, SE Manager EMEA Central and West bei Rubrik

Das Storage-Kompendium zum Thema – kostenfreier Download

Die Zeiten, in denen Backups ausschließlich auf Tape angefertigt wurden, sind vorbei. Heute stellt sich die Situation bezüglich Backup-Medien und -Strategien deutlich vielfältiger dar, was auch zu Unsicherheiten führt.

Backup & Archivierung – gestern, heute und morgen

Storage-Kompendium Backup & Archivierung
Storage-Kompendium „Backup & Archivierung“
(Bildquelle: Storage-Insider)

Die Hauptthemen des Kompendiums sind:

  • Auf dem Weg zur passenden Backup-Strategie
  • Cloud-Backup und Hybrid-Backup
  • Tape – der wehrhafte Dinosaurier
  • Datensicherheit und Storage: Welche gesetzlichen Vorgaben gelten?
  • Langzeitarchivierung mit Objektspeicherung
  • Unstrukturierte Daten ohne Backup schützen
  • Erstklassige Backup- und Archivierungsstrategie

(ID:47891008)