Umfrage: Acht Antworten von EMC/Isilon zu Speichersysteme für den Mittelstand Traditionelle Speichersysteme sind unzureichend für die Zukunft präpariert

Redakteur: Rainer Graefen

In dem Attribut flexibel lässt sich die Produktstrategie von Isilon drezeit wohl am Besten zusammenfassen. Flexibel und ausführlich antwortete Rob Anderson, Direktor Technologie EMEA bei Isilon, in der Storage-Insider.de-Umfrage.

Firmen zum Thema

Rob Anderson, Direktor Technologie EMEA bei Isilon (EMC)
Rob Anderson, Direktor Technologie EMEA bei Isilon (EMC)
( Archiv: Vogel Business Media )

Weitere Umfrage-Ergebnisse finden Sie hier: Hersteller-Umfrage 2011 zu Speichersysteme für den Mittelstand

1. Mit welchem Midrange-System aus Ihrem Portfolio machen Sie den größten Umsatz?

Anderson: Isilon ist ein Unternehmen von EMC, deren weitgefächertes Produktspektrum viele verschiedene Marktsegmente adressiert. Allerdings beziehen sich meine Antworten an dieser Stelle ausschließlich auf Isilon. In punkto Midrange-Storage zählen die Systeme der Isilon X-Familie zu den am meisten verkauften.

Herzstück der Lösungen ist die OneFS Virtualisierungs- und Clustering-Software. Dank des von uns entwickelten Betriebssystems gestaltet sich die Installation, die Verwaltung und der Ausbau der Produkte extrem einfach. Gleichzeitig gehören Komplexität, Ausfallzeiten oder störende Datenmigrationsprozesse der Vergangenheit an.

Die Produkte der Isilon X-Familie sind vor allem für den Einsatz in Umgebungen ideal, in denen unterschiedliche Workflows die Regel sind und daher sowohl ein sequentieller als auch ein gleichzeitiger Zugriff gefordert ist.

Gerade hier sind schlagkräftige, leistungsstarke Lösungen unerlässlich, die selbst ohne große Vorkenntnisse installiert und erweitert werden können – hochskalierbare Systeme, die sich selbst an anspruchvollste Anforderungen anpassen lassen und dadurch mit dem Unternehmenswachstum Schritt halten.

Die von Isilon verfolgte „Pay-as-you-grow“-Architektur stellt dabei sicher, dass sich vorab zu tätigende Investitionen auf einem minimalen Niveau bewegen. Zudem bietet dieser Ansatz den Vorteil, dass Verantwortliche Entscheidungen über den weiteren Ausbau ihrer Lösung erst dann treffen müssen, wenn dies wirklich zwingend erforderlich ist, sozusagen bis zum letzten Moment aufschieben können. Dies ermöglicht ihnen, Investitionsvorhaben geschäfts- anstelle speichergetrieben zu steuern.

2. Auf welche Funktionen legen die Anwender bei einer Anschaffung besonderen Wert?

Anderson: Bei der Anschaffung von Speichersystemen legen Entscheider immer stärkeren Wert auf Funktionen, die einen positiven Beitrag zu ihrem Geschäft leisten. Einfachheit und ein leichtes Management verringern Kosten und Risiken, dementsprechend beobachten wir, dass diese beiden Punkten bei der Auswahl passender Produkte eine zunehmend wichtige Rolle spielen.

Skalierbarkeit – sowohl der Kapazität als auch der Leistung – zählt ebenso zu den angesagten Kriterien. Dabei steht im Mittelpunkt, dass sich die Infrastruktur bedarfsgerecht an die jeweilige Geschäftssituation anpassen lässt.

Erweiterungen sollten unkompliziert und unter Beibehaltung eines zentralen Managements zu jedem beliebigen Zeitpunkt möglich sein. Dadurch lassen sich die Kosten niedrig halten.

Tiering ist ebenfalls ein Schlüsselfaktor, ganz gleich ob es sich dabei um die Konfiguration von Storage-Pools über verschiedene Festplattentypen hinweg, das so genannte Sub-LUN-Tiering, oder andere Verfahren handelt.

Unternehmen müssen die Kosten und Service-Levels für alle ihre internen und externen Kunden stets im Griff behalten – hierfür ist der Einsatz von Technologien unerlässlich, die ihnen diese Aufgabe vereinfachen und mit denen sie ihre Daten auf die wirtschaftlichste Art und Weise leicht verwalten können.

weiter mit: Die Preise fallen, die Komplexität nimmt zu

3. Auf welche Speicherfunktionen sollten Anwender bei ihren Speichersystemen achten, wenn sie viele virtuelle Maschinen betreiben wollen?

Anderson: Unternehmen, die bereits serverseitig die Vorteile der Virtualisierung ausschöpfen, sollten in punkto Storage auf die gleichen Eigenschaften achten. Bei der Auswahl gilt es darauf zu schauen, dass die auf den gemeinsamen Zugriff ausgelegten vernetzten Speicher ein hohes Maß an Leistung und Effizienz hinsichtlich der Darstellung von Daten aufweisen.

Steht für Kunden bei der Virtualisierung ihrer Server im Vordergrund, den Strom- und Kühlungsbedarf zu verringern, sollten sie sich für Storage-Lösungen entscheiden, deren Speicherplatz sich optimal auslasten lässt.

Dies gilt vor allem vor dem Hintergrund, dass die meisten Speichersysteme nach wie vor weniger als 50 Prozent der verfügbaren Storage-Kapazität als nutzbar anzeigen. Das wiederum bedeutet, dass eine höhere Zahl an Spindeln erforderlich ist.

Analog hierzu steigt auch der Stromverbrauch. Da inzwischen viele Gastinstanzen auf nur einer Storage-Einheit abgebildet werden können, ist das Thema Robustheit ebenso von Bedeutung.

Die Integration mit Backup- und Replizierungstechniken sowie die Unterstützung von Snapshot- und Disaster-Recovery-Funktionen in Verbindung mit der virtuellen Infrastruktur ist darüber hinaus außerordentlich wichtig.

4. Warum muss das Management von Speichersystemen einfacher werden?

Anderson: Beim Betrieb von Speicherlösungen stellt das Management den größten Kostenblock dar. Die reinen Ausgaben für Festplatten spielen dem gegenüber eher eine untergeordnete Rolle. Mit Scale-out Storage-Technologien wie beispielsweise von Isilon verringern sich die Kosten für das Storage-Management pro gespeicherter Einheit.

Sicherlich fallen die Preise für die Standardspeicherkomponenten – Festplatten, RAM, Controller etc. – weiterhin in schnellem Tempo. Doch das Volumen an abzuspeichernden Datensätzen nimmt gleichermaßen rasch zu.

Dementsprechend gehen die absoluten Kosten, die einem Unternehmen durch den Betrieb entstehen, nicht notwendigerweise zurück. Die Virtualisierung verursacht obendrein zusätzliche Kosten.

Denn bei der Umsetzung nahezu aller Virtualisierungsprojekte ist die Einführung weiterer neuer gemeinsam nutzbarer Speicherlösungen unumgänglich. Daher liegt der Schlüssel zum Erfolg darin, die Installations-, Management- und Skalierungskosten nachhaltig zu senken.

5. Nennen und bewerten Sie die Gründe warum das Speichern von Daten immer billiger wird. (alternativ die Frage 6 beantworten)

6. Nennen und bewerten Sie die Gründe warum das Speichern von Daten immer teurer wird.

Anderson: Der Ausbau traditioneller Speicher gestaltet die Datenspeicherung immer komplexer. Dadurch steigen in der Regel auch die Kosten. Wir gehen davon aus, dass wir dies vor allem bei Kunden beobachten werden, deren Unternehmen rasch wachsen.

Die jedoch versäumen, vorab zu prüfen, ob traditionelle Speicherkonzepte ihre Geschäftsanforderungen weiterhin erfüllen, ob diese sich jederzeit bedarfsgerecht an ihre individuelle Situation anpassen lassen und so mit der Geschäftsentwicklung Schritt halten können.

In privaten oder öffentlichen Cloud-Infrastrukturen lassen sich mit dem Einsatz von Scale-out-Technologien, auf denen beispielsweise die Lösungen von Isilon oder EMC Atmos basieren, Kosten deutlich senken.

weiter mit: NAS-Gateways sind häufig nicht gut integriert

7. Ist Unified Storage der Weg zu einem einfacheren Management oder doch besser ein zentraler Speicherpool mit NAS-Gateways?

Anderson: Unified-Storage-Systeme, die sowohl datei- als auch blockbasierte Protokolle unterstützen, eignen sich hervorragend für den Aufbau einfach zu verwaltender, konsolidierter Speicherpools.

Diese Möglichkeit bieten die Lösungen von Isilon bereits heute. Auf traditionellem Block-Storage aufsetzende NAS-Gateways arbeiten hingegen häufig nicht einwandfrei.

Insofern besteht eine große Aufgabe darin, die Sicherheit, Flexibilität, Robustheit und Leistung von NAS zu optimieren. Das lässt sich nicht allerdings nicht ausschließlich in einem NAS-Gateway realisieren – vielmehr muss die Umsetzung im Core-Produkt erfolgen.

8. Wenn sich das Management und Speichern in der Cloud durchsetzen würde, brauchen wir dann noch Speicher für den Mittelstand?

Anderson: Öffentliche Cloud-Infrastrukturen gewinnen tatsächlich in rasantem Tempo an Bedeutung. Dies spiegelt wider, dass die am Markt angebotenen traditionellen Speicherplattformen Kundenanforderungen in vielerlei Hinsicht nur noch unzureichend erfüllen.

Unternehmen sind somit stärker als je zuvor darauf angewiesen, dass ihnen Speicherplatz dynamisch zur Verfügung steht, der sich bedarfsgerecht an ihre jeweilige Geschäftssituation anpassen lässt - das heißt sowohl minimiert als auch maximiert werden kann.

Das Ganze, ohne dass hierfür Investitionen im Vorfeld erforderlich sind. Darüber hinaus legen sie Wert darauf, dass sich Regeln flexibel festlegen und mit dem Betrieb in Verbindung stehende Risiken verringern lassen.

Allerdings stellen mit dem Einsatz öffentlicher Cloud-Computing-Umgebungen in Zusammenhang stehende und bislang nicht vollständig gelösten Sicherheits- sowie Compliance-Fragen einen Knackpunkt dar.

Wie gelangen Kunden beispielsweise bei einem Provider-Wechsel wieder an ihre Daten? Wie gewinnen sie über diese erneut die Hoheit? Gleiches gilt, wenn sie diese in ihre private Infrastruktur zurück verlagern möchten.

Aus diesen Gründen haben es Unternehmen bislang nicht eilig, ihre Daten in öffentlichen Clouds zu speichern. Vielmehr investieren sie in private Clouds – dies wiederum erfordert die Anschaffung von Midrange-Speichersystemen.

Viele unter ihnen setzen zudem auf ein „hybrides“ Modell, das private und öffentliche Cloud miteinander verbindet. Genau dieser Ansatz ist vermutlich der Weg, den ein Großteil der Unternehmen in der Zukunft verfolgt.

Wir erwarten, dass die Ausgaben für den Auf- und Ausbau sowohl privater als auch öffentlicher Infrastrukturen weiterhin deutlich ansteigen. Aus unserer Sicht wird vor allem in hohem Maß in Technologien investiert werden, mit denen sich diese beiden Welten zusammenführen lassen.

9. Haben Sie schon Kunden, die produktive Daten, Datensicherung oder Archivierung von Daten in der Cloud praktizieren?

Anderson: Viele Kunden nutzen bereits Isilon-Systeme in ihren privaten und öffentlichen Cloud-Infrastrukturen. Die Scale-out-Architektur der Produkte bietet sich vor allem bei der Umsetzung großer Virtualisierungsprojekte an.

Leistung und Kapazität lassen sich beim Ausbau der Produkte auf modulare Art und Weise skalieren. Die Migration oder Rekonfiguration von Servern entfällt dabei vollständig. Eine schnelle und unkomplizierte Ressourcenbereitstellung sowie die Integration mit VMware ist selbstverständlich.

Die Einfachheit des Produkts und die umfassenden NAS-Funktionen stellen sicher, dass sich selbst großangelegte Installationen genau so einfach verwalten lassen wie kleinere.

Die Tiering-Funktionalität des Produkts ermöglicht Administratoren überdies eine Unified-Storage-Infrastruktur zu schaffen, die datei- und blockbasierte Verfahren unterstützt und Daten automatisch auf dem Tier ablegt, das jeweils das beste Kosten-Leistungsverhältnis bietet.

(ID:2050214)