Mobile-Menu

Wofür braucht man eine redundante Infrastruktur? Was ist Redundanz (redundant)?

Von Walter Schadhauser

Anbieter zum Thema

„Doppelt genäht hält besser“ oder „Lieber einmal zu viel als einmal zu wenig“ sind gängige Redensarten, die recht gut umschreiben, was sich hinter dem Begriff Redundanz verbirgt. Nämlich dass identische oder miteinander vergleichbare Dinge parallel mindestens zweimal vorhanden sind. In der Technik lässt sich dadurch sicherstellen, dass Daten, Systeme, Netzwerke, Übertragungsstrecken und vieles weitere mehr auch im Fehlerfall verfügbar bleiben.

Redundant bedeutet, dass etwas doppelt oder mehrfach vorhanden ist. Der Begriff leitet sich von dem lateinischen Wort redundare ab (re = „zurück“ und unda = „Welle“) und steht im übertragenen Sinne für „überreichlich“, „wiederholt“ oder „überzählig“.
Redundant bedeutet, dass etwas doppelt oder mehrfach vorhanden ist. Der Begriff leitet sich von dem lateinischen Wort redundare ab (re = „zurück“ und unda = „Welle“) und steht im übertragenen Sinne für „überreichlich“, „wiederholt“ oder „überzählig“.
(Bild: / CC0)

Wann sind Redundanzen sinnvoll?

Redundanz kommt vom lateinischen redundare, das mit „Im Überfluss vorhanden sein“ übersetzt werden kann. In der Informationstheorie könne man redundante Informationen ohne Informationsverlust weglassen, so heißt es. In der IT-Technik ist es anders. Hier wird Redundanz absichtlich durch die mehrfache Installation gleichfunktioneller Komponenten praktiziert. Dies stellt sicher, dass Daten oder IT-Infrastrukturen auch bei technischen Defekten und in Katastrophenfällen weiterhin verfügbar sind. Die Verdopplung und auch die Vervielfachung von Komponenten oder Daten kann bei gespiegelten Rechenzentren jedoch immense Kosten verursachen.

Das Gegenteil von Redundanz ist ein „Single Point of Failure“, kurz SPoF, der die weitere Nutzung eines technischen Systems verhindert oder im schlimmsten Fall zu Datenverlust führt. Beispiele für SPoF sind einzelne Festplatten mit nur einer Schnittstelle, nur ein RAID-Controller, nur ein Server oder nur eine Stromversorgung.

Datensicherheit durch gespiegeltes RAID-System

In einer ausfallsicheren oder hochverfügbaren IT-Umgebung muss alles mehrfach oder zumindest doppelt vorhanden sein. Die höchste Stufe technischer Redundanz sind selbstheilende Systeme. Betrachtet man explizit die Datensicherheit, so sollte man gemäß Herstellerempfehlungen ein gespiegeltes RAID-System einsetzen, seine Daten zusätzlich in einer verschlüsselten Cloud ablegen und noch ein zeitnahes Backup mit Medienbruch offline in einer klimatisierten und zugangsgeschützten Umgebung aufbewahren.

Die Praxis mit wachsenden Datenbeständen im gehobenen Petabyte-Bereich konterkariert solche Vorstellungen. Objektspeicher kommen der ursprünglichen Idee derzeit vielleicht am Nächsten. Sollen unternehmenskritische Anwendungen wie Active-Directory-, Datenbank- oder ERP-Server hochverfügbar sein, so setzt man auf Cluster. Diese bestehen aus mindestens zwei gekoppelten Server, die sich gegenseitig signalisieren, das alles okay ist. Unterbleibt dieses Signal, startet der verbleibende Server die Programme, die auf dem havarierten Server aktiv waren.

Spiegelung eines kompletten Rechenzentrums

Die teuerste Variante für ein Unternehmen ist die Spiegelung des kompletten Rechenzentrums. Die beiden Rechenzentren sollten, falls man sein Unternehmen an der San-Andreas-Verwerfung hat, je auf einer Seite liegen. Um von den Kosten einer umfassenden Redundanz herunterzukommen und so viel Sicherheit wie möglich zu bieten, kommt die Statistik zum Einsatz – und so viel Standardisierung, wie es nur geht.

In unternehmenskritischen Umgebungen kann die Anforderung nach Redundanz bedeuten, dass man das komplette Rechenzentrum doppelt vorhalten muss.
In unternehmenskritischen Umgebungen kann die Anforderung nach Redundanz bedeuten, dass man das komplette Rechenzentrum doppelt vorhalten muss.
(Bild: Microsoft)

Untersucht wird, welche Komponenten stärker ausfallgefährdet sind: klassischerweise das Netzteil und der Lüfter. In Industrieservern sind diese Bauteile wie auch Netzwerkkarten deshalb mehrfach vorhanden. Festplatten laufen, wenn sie nicht schon in den ersten Wochen ausfallen, meistens vier bis sechs Jahre. Der Cloud-Storage-Anbieter Blackblaze veröffentlicht hierzu regelmäßig Statistiken. Interessant könnte die Kombination von Statistik und Künstlicher Intelligenz (KI) werden. Die permanente Überwachung von Maschinendaten führt durch deren Korrelation zu besseren zeitlichen Vorhersagen über den baldigen Ausfall von Komponenten.

Durch Standardisierung Infrastrukturkosten reduzieren

Da inzwischen viele Anwendungen auf preiswerten x86-Industrieservern laufen, spielt die Redundanz von Hardware eine immer geringere Rolle. Als wichtig erweisen sich letztlich die unersetzbaren Daten. Diese sollten durch RAID-Konfigurationen, Snapshots, Backup oder auf einem Objektspeicher vor dem Totalverlust und auch vor Ransomware geschützt werden. Ersatzrechner könnte man zum Beispiel mit geringem Kostenaufwand als Reserve vorhalten.

Letztlich zeigt auch ein Blick auf Virtualisierung und vor allem Container-Software, dass die Server-Hardware nur noch für flüchtige Augenblicke Rechenleistung für Zero-Server-Anwendungen bereitstellt. Sollte die Entwicklung bei Persistent Memory in den nächsten Jahren fortschreiten, dann ist ein weiterer Single Point of Failure, das DRAM im Server, eliminiert. Der Überfluss der Redundanz könnte weiter minimiert werden. Der kritische Faktor wäre bei solchen Innovationen nicht mehr die Technik, sondern vor allem die Vorgabe der Geschäftsleitung, in welcher Zeit ein Desaster behoben sein muss.

(ID:45589731)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Data-Storage und -Management

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung