Suchen

Kommentar zu IT-Budgetkürzungen Zweimal nachdenken, bevor man einmal schneidet

Autor / Redakteur: Bernd R. Krieger, Geschäftsführer Crossroads Europe / Rainer Graefen

Ein etwas längerer Beitrag, der anhand des Beispiels Backup auf Band oder Festplatte die aktuelle Debatte aufgreift, ob es Kosten sparender ist zu modernisieren oder ob man den Karren nicht mit ein wenig Fehleranalyse zu ungeahnten Sprintfähigkeiten verhelfen kann.

Firmen zum Thema

Bernd R. Krieger ist Geschäftsführer bei Crossroads Europe.
Bernd R. Krieger ist Geschäftsführer bei Crossroads Europe.
( Archiv: Vogel Business Media )

In Zeiten der weltweiten Wirtschaftskrise, in denen Entlassungen und Budgetkürzungen an der Tagesordnung sind, stehen die IT-Abteilungen vor einer schwierigen Aufgabe: Sie müssen den ständig steigenden Datensicherungs- und -managementbedarf mit der Realität gewordenen Rückstellung von Investitionen unter einen Hut bringen.

Angesichts des Sparkurses der vergangenen Jahre sehen sich die IT-Manager, Storage Administratoren sowie Backup- und Recovery-Teams gezwungen, einen gründlichen Blick auf ihre Prioritäten zu werfen und neue, kreative Möglichkeiten zu suchen, um die laufenden Kosten zu senken.

Eine der naheliegendsten Möglichkeiten ist natürlich, die vorhandenen und funktionierenden Systeme weiter zu nutzen und die Anschaffung neuer Systeme hinauszuzögern, zumal in den letzten Jahren ein allgemeiner Trend hin zur Maximierung der Systemeffizienz zu beobachten war.

Dabei lag der Schwerpunkt in erster Linie auf der Virtualisierung von Servern, also der Erzeugung mehrerer virtueller Server auf einem physischen Server, was für die Unternehmen eine enorme Senkung der Investitionskosten und des Strombedarfs bedeutet. Und genau da müssen die Unternehmen jetzt auch bei ihrer Datensicherungsinfrastruktur und ihren Datensicherungssystemen ansetzen.

Das unverzichtbare Band wird für Probleme verantwortlich gemacht

Ein altgedienter Bestandteil der Datensicherungsinfrastruktur der meisten Unternehmen sind Bandlaufwerke und -bibliotheken. Immer mehr Unternehmen gehen bei der Sicherung eines Teils ihrer Daten jedoch verstärkt weg von Bandsystemen und hin zu Plattensystemen, wie z. B. Disk-to-Disk-, Replikations- oder Virtual-Tape-Lösungen, die zwar Bandlaufwerke und -bibliotheken emulieren, die Daten aber auf Plattensubsystemen speichern.

Obwohl die plattenbasierten Backup-Lösungen viele Vorteile haben, gibt es doch nach wie vor einen großen Bedarf an Sicherung von Langzeitdaten. Dies macht Bandlösungen weiterhin erforderlich. Natürlich gibt es auch einige Plattenhersteller, die sich für den Einsatz von Plattensystemen für die Langzeitdatensicherung stark machen und dabei die Notwendigkeit von Bandsystemen komplett negieren.

Während die Anbieter von Plattensystemen weiterhin darauf drängen, die bestehenden Bandsysteme durch Plattensysteme abzulösen, bewirken die derzeitige Wirtschaftslage und die zunehmende Forderung nach umweltfreundlichen Technologien, dass die IT-Fachleute ihre vorhandenen Bandsysteme „vom Staub befreien“ und sich ausführlich mit ihnen befassen.

weiter mit: Austauschen ist radikal, evolutionär manchmal besser

Dabei ist jedoch die Band-Problematik für die IT-Administratoren dieselbe geblieben. Die Bandsicherung hat in den letzten Jahren einen schlechten Ruf bekommen, was zwar zum Teil auf die einseitige Presse seitens der Plattenanbieter, andererseits aber auch auf tatsächliche Probleme bei dieser Lösung zurückzuführen ist. Auf viele dieser Probleme sind die Anbieter von Bandsystemen nicht hinreichend eingegangen, so dass ihren Kunden nichts anderes übrig blieb, als sich nach einer Alternative umzusehen.

Unabhängig davon, welcher Lösungsansatz verfolgt wird, um die schwierige Balance zwischen schrumpfenden Budgets und steigenden Datenmengen zu finden, müssen die IT-Manager ihre Kenntnisse über die Datensicherungsumgebung erweitern, um fundierte Entscheidungen in Bezug auf die Sicherung von Langzeitdaten treffen zu können. Dabei hilft die alte Faustregel „measure twice, cut once” (zweimal messen, einmal absägen), denn hat man für ein Werkstück nur noch ein Stück Holz übrig, muss man sich unbedingt vergewissern, dass die Sägemaße stimmen – und zwar vor dem Sägen!

ARGUMENTE GEGEN „RIP-AND-REPLACE”

Vor der Wirtschaftskrise waren die Unternehmen bereit, tief in die Tasche zu greifen, um ihre alten Bandsysteme durch neue plattenbasierte Systeme zu ersetzen. Zuverlässigkeit war dabei in der Regel ihr größtes Anliegen, da es in einem Bandsystem keine Möglichkeit gab, exakt festzustellen, welche Komponenten nicht korrekt eingerichtet waren, Konflikte verursachten oder nicht richtig funktionierten.

Eine Reihe verschiedener, umgebungsbedingter Mängel wurden von den Backup-Anwendungen nicht erkannt, so dass so mancher Storage Administrator beim Versuch, Daten wiederherzustellen, bangte und sprichwörtlich die Daumen drücken musste.

In aufwändigen Marketingkampagnen einiger großer IT-Unternehmen wurde den potenziellen Kunden nahe gelegt, ihre mit der Datensicherung auf Band einhergehenden Probleme durch eine Umstellung auf die – (solange sie die recht erheblichen, laufenden Kosten für die zugehörigen Berater zahlen) auf wundersame Weise störungsfreie – „SAN-in-a-box”-Lösung zu beheben.

Die Kunst der Überzeugung

Auf den ersten Blick sehen die Unternehmen darin eine hervorragende Möglichkeit, Performance- und Management-Probleme zu vermeiden und ihre ständig steigenden Datenmengen zu bewältigen.

Angesichts der großen Ausfallraten, die einige Unternehmen beim Versuch, auf Band gesicherte Daten wiederherzustellen, wohl erleben mussten, und in Anbetracht der gigantischen Marketingbudgets der großen Anbieter von plattenbasierten Lösungen, überrascht es nicht, dass etliche Kunden zu der Überzeugung gelangten, dass die Antwort im Kauf extrem teurer plattenbasierter Systeme liegt.

weiter mit: Versteckte Kosten

Auch wenn die plattenbasierten Systeme im Preis etwas gesunken sind, so gibt es doch jede Menge versteckte Kosten, unter anderem:

  • Kosten für die Schulung von Mitarbeitern und/oder für die Verpflichtung externer Kräfte, die gegebenenfalls in ein Vendor Assurance Program aufgenommen werden müssen
  • Compliance-bezogene Kosten (Möglicherweise müssen weitere Geräte und nicht nur ein paar mehr der kostengünstigeren Bandkassetten angeschafft werden, damit die Disaster-Recovery-Anforderungen erfüllt werden.)
  • Wegen der Integration in das Betriebssystem sind bei plattenbasierten Lösungen häufiger Upgrades erforderlich.
  • Bei der Bandsicherung muss das Band, da es sich dabei um das eigentliche Speichermedium handelt, nicht hochgefahren werden. Man kann die Daten auf einem einzelnen Band einsehen, ohne dazu alle Bänder hochfahren zu müssen. Bei der Datensicherung auf Festplatten hingegen muss das ganze System die ganze Zeit hochgefahren sein (Es gibt Technologien, Festplattensysteme herunterzufahren, aber diese Lösungen gibt es nur gegen Aufpreis und sie werden im Stromverbrauch nie so günstig sein wie Bandsysteme).
  • Die meisten plattenbasierten Lösungen, die als Ersatz für Bänder dienen, verwenden SATA-Festplatten, die ein hohes Ausfallrisiko haben. Dadurch werden teure Wartungsverträge oder der Einsatz erweiterter RAID-Systeme (z. B. RAID6) erforderlich, die den gleichzeitigen Ausfall von bis zu zwei Festplatten verkraften. Diese Variante ist jedoch teuer, da hier je RAID-Set zwei Festplatten für die Datenwiederherstellung erforderlich sind und zudem die Leistung erheblich beeinträchtigt wird.
  • In wärmeren Klimazonen ist ein enormer Kühlungsaufwand erforderlich.

Hinzu kommt noch, dass in einer von Unternehmensfusionen und -übernahmen geprägten Wirtschaft, in der heterogene Umgebungen gang und gäbe sind, die Schwierigkeiten, die mit der Umstellung auf eine neue – plattenbasierte – Lösung verbundenen sind, ein gewaltiges und kostspieliges Hindernis darstellen können.

Hohe Startkosten bei Radikaltausch einplanen

Zweifelsohne sind mit der „Rip-and-Replace”-Methode erhebliche Kosten verbunden. Durch unzählige Stunden für die interne Planung und die Notwendigkeit, externe Berater zu engagieren, summieren sich in kürzester Zeit die Kosten.

Hinzu kommen noch die zusätzlichen Kosten für das Personal, das die Systeme neu konfigurieren, testen und zur Verfügung stellen muss. Letztendlich wird das Bandsystem wegen der darauf bisher gespeicherten älteren Daten, deren Transfer auf ein Online-Plattensystem extrem teuer, wenn nicht gar unmöglich, ist, trotzdem benötigt.

weiter mit: Meßlatte Datenwachstum

Die Methode, eine funktionierende Lösung durch eine andere zu ersetzen, wurde von den großen Anbietern plattenbasierter Lösungen energisch beworben. Dennoch können es sich die Unternehmen nicht mehr leisten – zumal ja Band und Festplatte aufgrund ihrer Bauweise unterschiedliche Anforderungen erfüllen –, auf diese Weise Geld zu verschwenden oder einfach auf eine gute Technologie zu verzichten.

Eine Technologie, die ohne Weiteres dahingehend verbessert werden kann, dass sie das Kriterium Notfallwiederherstellung und andere Bedürfnisse des Unternehmens erfüllt. Festplatte und Band müssen nebeneinander bestehen. Nichtsdestotrotz müssen die Probleme, die in vielen Fällen bei Band-Umgebungen auftreten, vorausschauend und erfolgreich behandelt werden, um die Effizienz des Datensicherungssystems gewährleisten zu können.

Letzten Endes ist es so, dass die Datenmenge unabhängig von der Wirtschaftslage weiterhin ansteigt und die Storage Administratoren daran gemessen werden, wie gut es ihnen gelingt, alle Daten zu verwalten und wiederherzustellen.

Wenn es darum geht, die Anschaffungskosten für neue Technik zu senken, älteres Equipment beizubehalten und den Energieverbrauch zu reduzieren, können sich die Administratoren auf den weitestgehenden Verzicht auf arbeitsintensive Speicher- und Backup-Strategien konzentrieren, um beinahe sofort Einsparungen zu erzielen.

Dennoch scheuen sich Manager, die Kostenmanagement, Business Continuity, Notfallwiederherstellung und Compliance ernst nehmen, auch angesichts minimaler Personalressourcen und hoher Outsourcing-Raten, davor, die Datensicherung komplett auf ein anderes System umzustellen.

Es stellt sich also die Frage: Warum soll man sich vom bisherigen System trennen, wenn es doch einfacher und kostengünstiger ist, dieses System zu optimieren?

VORHANDENE SYSTEME LÄNGER NUTZEN

Bis vor wenigen Jahren war das proaktive Monitoring von Band-Umgebungen für die Anbieter von Datensicherungssystemen kein Thema, da die Unternehmen stets ihre Bereitschaft signalisierten, einfach immer die modernste Technik neu oder Upgrades dafür zu kaufen, in der Hoffnung, dass sich dadurch Probleme lösen würden.

Dieser Weg ist aber angesichts der derzeitigen Wirtschaftslage nicht mehr gangbar: Man kann nicht ins Dunkle feuern und hoffen, das Ziel zu treffen. Jetzt gilt es vielmehr, die bestehenden Umgebungsbedingungen genau zu untersuchen, die kritischen Bereiche zu erkennen und die zugrunde liegenden Probleme zu lösen. Mit anderen Worten: Zweimal messen, einmal absägen.

Wenn ein Unternehmen die Verbesserung seiner Band-Umgebung plante, lief es üblicherweise so, dass man die Probleme diskutierte und sich die Lösungen der Bandsystem-Anbieter anhörte. Dabei ist natürlich klar, dass die Bandsystem-Anbieter die Anschaffung weiterer Tape-Librarys und die Aufrüstung der Datensicherungsumgebung durch neue Laufwerke empfehlen.

weiter mit: Tape-Effizienz braucht Monitoring

Tape-Effizienz braucht Monitoring

Einige dieser Empfehlungen werden die Storage Administratoren, je nach den sich herausbildenden Anforderungen, zwar schließlich ins Auge fassen müssen. Fakt ist jedoch, dass die meisten Administratoren, die neue Tape-Monitoring-Tools einsetzen, feststellen, dass sie bisher nur einen Bruchteil ihrer vorhandenen Band-Umgebung genutzt haben.

Es ist keine Seltenheit, dass in einer Tape-Library mehrere Laufwerke monatelang ungenutzt bleiben und die Laufwerke, die genutzt werden, im Durchschnitt einen Datendurchsatz haben, der nur einem Bruchteil ihrer nativen Datenrate entspricht. Kein Wunder also, dass viele Unternehmen durch die extrem ineffiziente Nutzung ihrer Bandressourcen ihr maximales Backup-Zeitfenster erreichen oder überschreiten.

In vielen anderen Netzwerkbereichen werden Monitoring-Tools und -Lösungen zur Überwachung der Aktivität, der Effizienz und der allgemeinen Leistungsfähigkeit eines Systems eingesetzt. Diese Tools und Lösungen müssen sich nun auch bei der Datensicherung durchsetzen. Bei einer Umsetzung der entsprechenden Lösungen (die in vielen Fällen auch als Services angeboten werden) können den Unternehmen jene Daten bereit gestellt werden, die sie benötigen, um die richtigen wirtschaftlichen Entscheidungen zu treffen.

Insbesondere bei Band-Subsystemen müssen Tools implementiert werden, die in der Lage sind, die Lese-/Schreibfehler mit den Bandlaufwerken und den Bändern in einen Zusammenhang zu setzen, um die Fehlerursache zu ermitteln. Darüber hinaus gilt es, die Echtzeit-Auslastung und -Leistungsfähigkeit der Bandlaufwerke zu messen und die Lesbarkeit der auf Band gespeicherten Daten zu verifizieren.

Viele Fehlerursachen, aber immer derselbe Schuldige

Eines der ärgerlichsten Probleme bei der Bandsicherung stellt die große Zahl der Faktoren dar, die für einen Fehler verantwortlich sein können: Da wären die Bandmedien, das Bandlaufwerk, die Library, das Netzwerk und der Backup- bzw. Daten-Server, die den Fehler verursachen können. Die berühmte Henne-Ei-Frage lautet im Kontext der Bandsicherung: „Was hat den Fehler verursacht? Das Band oder das Bandlaufwerk?“

Zu häufig ersetzen die IT-Verantwortlichen das Band, da es die Komponente ist, die sich am leichtesten austauschen lässt, und hoffen, dass sich das Problem dadurch erledigt hat. Untersuchungen belegen jedoch, dass in vielen, wenn nicht gar in den meisten, Fällen die Ursache des Fehlers bei einem oder mehreren der Laufwerke liegt.

Es ist ziemlich schwierig, die betreffenden Laufwerke zu finden, da es durchaus sein kann, dass das defekte Laufwerk ein Band beschrieben hat, und ein anderes Laufwerk das Band später, mitunter erst nach vielen Monaten, nicht lesen konnte. Da sich dieses Problem über so lange Zeit erstreckt und mit der Zeit auch noch verstärken kann, ist es für ein Unternehmen unerlässlich, alle an den Schreib-/Lesevorgängen beteiligten physischen Systeme zu überwachen.

weiter mit: Jeder Softerror senkt Datendurchsatz

Jeder Softerror senkt Datendurchsatz

Durch die Korrelation der Lese-/Schreibfehler mit den Bandlaufwerken und den Bändern kann der Storage Administrator die defekten Laufwerke erkennen. Anhand von Soft Errors (d. h. Fehlern im Speichermedium, die sich mit Hilfe erweiterter Fehler-Korrektur-Algorithmen beheben lassen) ist es möglich, die defekten Laufwerke und/oder Bandmedien zu erkennen und zu entfernen, bevor sie schwerwiegendere Probleme im Recovery-Fall verursachen können.

Außerdem wird bei einem Laufwerk, das Probleme beim Schreiben der Daten hat (und wiederholt Soft Errors verursacht), die Datenübertragung deutlich verlangsamt. Zur Verlangsamung der Datenübertragung kommt es, weil das Laufwerk [häufig] zurückspulen und neu schreiben muss, um unter der minimal erlaubten Fehlerrate beim Schreiben von Daten bleiben zu können.

Das geschilderte Problem bliebe ohne eine Monitoring-Lösung von den IT-Administratoren gänzlich unerkannt – sie würden lediglich feststellen, dass der Backup-Vorgang in der dafür vorgesehenen Zeitspanne nicht abgeschlossen werden konnte, oder dass er wesentlich länger gedauert hat als erwartet.

Genau das ist einer Bank hier in der Region passiert. Die Bank ging davon aus, dass ihr Datenvolumen für das Backup-Fenster zu groß geworden sei und kaufte eine neue Library und neue, leistungsfähigere Bandlaufwerke.

Nachdem jedoch eine Monitoring-Lösung implementiert worden war, stellte die Bank fest, dass defekte Laufwerke die Ursache für ihre schwerwiegenden Performance-Schwierigkeiten waren, die wiederum zu den Problemen mit dem Backup-Fenster geführt haben. Wie die Bank erkennen musste, hätte sie noch viele Jahre keine neuen Laufwerke und keine neue Library benötigt, wenn das tatsächliche Problem beseitigt worden wäre.

Unzureichende Wartungszyklen

Ein weiterer Bereich mit erheblichem Potenzial ist der Nutzungsgrad der vorhandenen Bandlaufwerke. Dabei ist es schwierig, jedes Laufwerk immer optimal zu nutzen, da das Datensicherungssystem auf die maximal zu übertragende Datenmenge ausgelegt sein muss.

Normalerweise ist die durchschnittlich zu übertragende Datenmenge deutlich geringer, was zur Folge hat, dass Teile des Backup-Systems ungenutzt bleiben. Vielleicht war das Bandsystem ja anfangs optimal eingestellt, doch wahrscheinlich ist die Nutzung der Bandlaufwerke nach den zahlreichen Änderungen, die es in jedem Rechenzentrum gibt, mittlerweile nicht mehr effizient.

So wie ein neues Auto nach einer Weile einer Inspektion unterzogen werden muss, so muss auch die Nutzung von Bandlaufwerken einer Inspektion unterzogen werden. In vielen Umgebungen ist es nämlich so, dass Bandlaufwerke anscheinend verloren gehen und monatelang nicht mehr genutzt werden.

Bei einem großen Telekommunikationsunternehmen wurden in einem fünfmonatigen Überwachungszeitraum bei sechs (von 47) Laufwerken keine I/O-(Schreib- bzw. Lese-) Prozesse festgestellt. Das bedeutet entweder Einsparmöglichkeiten bei Wartung, Energieverbrauch und Kühlungsbedarf oder bietet die Möglichkeit, das Backup-Fenster den Gegebenheiten neu anzupassen und zu minimieren.

weiter mit: Dauerbelastung darf nicht überlasten

Dauerbelastung darf nicht überlasten

Auch das Gegenteil, wenn nämlich Bandlaufwerke zu stark in Anspruch genommen werden, kann ein Problem darstellen. Es äußert sich in Form von permanentem Datentransfer und/oder übermäßig häufigen Wechseln der Bandkassetten. Jeder Laufwerktyp hat eine bestimmte Duty-Cycle-Rate, die angibt, wie oft auf das Laufwerk (i.d.R. innerhalb eines Zeitraums von 24 Stunden) zugegriffen werden soll, und die sowohl die durchschnittliche als auch die absolute Anzahl an Kassettenwechseln definiert, für die das Laufwerk ausgelegt ist.

Es gibt Umgebungen, bei denen diese Werte höher – in einigen Fällen erheblich höher – liegen, und zwar so hoch, dass die Bandlaufwerke vorzeitig versagen. Aus Anwendersicht scheint das ein Problem der allgemeinen Qualität von Bandsystemen zu sein, obwohl eigentlich das Problem durch eine falsche Nutzung der Geräte verursacht wird.

Wenn der Datenpuffer mal nicht voll ist

Ein weiteres Thema, das von Interesse ist und der näheren Betrachtung bedarf, ist die Datendurchsatz-Performance von Bandlaufwerken. In den meisten Fällen wird das neueste und in Bezug auf den (im Vergleich zum Vorgängermodell normalerweise doppelt so großen) Datendurchsatz und die Bandkapazität größte Bandlaufwerk gekauft.

Problematisch ist hierbei, dass die meisten Umgebungen Mühe haben, die Mindestdurchsatzrate zu ereichen, die die neueste Bandtechnik benötigt, um Daten auf das Bandmedium schreiben zu können. Bei allen Bandlaufwerken wird gern auf die native Datenrate und die Kompressionsrate von 2:1 hingewiesen. Es gibt jedoch eine kritische Zahl, nämlich die Streaming-Rate, auf die nicht so offensichtlich hingewiesen wird.

Die Streaming-Rate gibt die Geschwindigkeit an, mit der die Daten vom Bandlaufwerk verarbeitet werden müssen, damit das Band ohne anzuhalten am Schreibkopf vorbeilaufen kann. Werden die Daten langsamer geliefert, muss das Laufwerk aufhören zu schreiben, das Band zurückspulen, warten bis sich der Datenpuffer ausreichend gefüllt hat und dann wieder anfangen zu schreiben.

Schnelle Laufwerke, zu langsame Infrastruktur

Das Ganze ist zeitaufwändig und hat zur Folge, dass die Gesamtleistung noch weiter unter die Streaming-Rate sinkt. Außerdem kann es dabei auch zu einer Beschädigung des Bands kommen, die jedoch erst zutage tritt, wenn das Band das nächste Mal gelesen wird.

Sollen Backup-Fenster verkürzt oder größere Datenmengen als bisher innerhalb der bestehenden Backup-Fenster gesichert werden, hat ein Unternehmen oftmals nur die Möglichkeit, neuere und schnellere Bandgeräte zu kaufen. Kann jedoch die alte Umgebung die Daten nicht mehr in der erforderlichen Geschwindigkeit verarbeiten, so hilft es wenig, sie durch Laufwerke der nächsten Generation zu ergänzen.

weiter mit: Streaming wichtiger als maximala Datentransferrate

Streaming wichtiger als maximala Datentransferrate

Das wäre so, als stünde man in einem Stau auf der Autobahn: Selbst wenn man einen Ferrari hätte, käme man nicht schneller nach Hause. Wenn jedoch der I/O-Durchsatz verbessert werden kann, wäre bei einem System, dessen Leistung unter der Streaming-Rate liegt, eine Leistungssteigerung um 100 Prozent oder noch mehr möglich. Das ist der bei weitem wichtigste Faktor, an dem man ansetzen sollte; anstelle ein System der neuesten Generation zu kaufen, mit dem bestenfalls eine Leistungssteigerung von 5 bis 10 Prozent zu erzielen ist.

Schließlich sei noch gesagt, dass die Unternehmen einen proaktiven Prozess einführen sollten, in dessen Rahmen die vorhandenen Medien verifiziert werden. Das kann offline und ohne die vorhandenen Server geschehen. Die IT-Mitarbeiter haben dadurch die Möglichkeit, defekte Medien zu erkennen, bevor diese für die wirtschaftliche Tätigkeit des Unternehmens relevant werden.

So lassen sich nicht nur die bestehenden Compliance- und Governance-Anforderungen erfüllen, auch die Storage Administratoren werden in die Lage versetzt, das Problem zeitnah und kostengünstig zu lösen.

Fazit

Bei den Unternehmen setzt sich zunehmend die Erkenntnis durch, dass fundierte Entscheidungen, anstatt teurer, zeitlich ungelegener oder völlig unnötiger Anschaffungen möglich sind. Eine proaktive Herangehensweise und zuverlässige Zahlen machen aus einem weitestgehend unwissenschaftlichen Ratespiel einen intelligenten Prozess, der sowohl für die IT-Verantwortlichen als auch für die Unternehmensführung verständlich und nachvollziehbar ist und Informationen in Echtzeit liefert, die einen echten Beitrag zu einer zukunftsorientierten Datensicherung leisten.

Wenn es darum geht, Kosteneinsparungen und die Effizienzprobleme im Zusammenhang mit der Datensicherung auf Band zu bewältigen, ist modernes Tape-Storage-Management mehr als nur ein Marketing-Schlagwort, nämlich eine rentable und bewährte Alternative zu anderen kostenintensiven Lösungen. Tape-Storage-Management ist Teil der Strategie, die viele der weltweit größten Unternehmen in den vergangenen Monaten beharrlich verfolgt haben: vorhandene Tools wirksam einzusetzen und künftig nicht mehr Systeme zu kaufen, als tatsächlich benötigt werden.

So wie der Schreinermeister seinem Lehrling einzutrichtern versucht, er möge stets „zweimal messen, einmal absägen”, wird dieser Grundsatz zweifellos von einer wachsenden Zahl an Unternehmen befolgt werden, die ihre Backup-Teams dazu anhalten werden, sich eingehender und genauer mit den tatsächlichen Bedürfnissen des Unternehmens zu befassen.

(ID:2020559)