Suchen

Umfrage: Acht Antworten von NetApp zu Speichersystemen für den Mittelstand Eine Storage-Architektur sollte durchgängig redundant ausgelegt sein

Redakteur: Rainer Graefen

Storage-Insider.de sprach mit Johannes Wagmüller, Director Systems Engineering bei NetApp, über den Funktionsumfang den ein Midrange-Speichersysteme besitzen sollte.

Firmen zum Thema

Johannes Wagmüller, Director Systems Engineering, NetApp
Johannes Wagmüller, Director Systems Engineering, NetApp
( Archiv: Vogel Business Media )

Storage-Insider.de: Mit welchem Midrange-System erzielt NetApp den größten Umsatz?

Wagmüller: Mit der FAS3000-Produktfamilie. Die neuen FAS3210-, FAS3270- und FAS3240-Systeme bieten Mittelständlern die Performance und Verfügbarkeit der Enterprise-Klasse bei hoher Kosteneffizienz und großer technischer Flexibilität.

Storage-Insider.de: Auf welche Funktionen legen die Anwender bei einer Anschaffung besonderen Wert?

Wagmüller: Neben den grundlegenden Aspekten Hochverfügbarkeit, Skalierbarkeit und Performance legen Kunden vor allem auf eine homogene Unified-Architektur Wert, die mit integrierten Storage-Effizienz-Technologien wie Deduplizierung, Thin Provisioning, SSD-Caching und Sicherungsmethoden wie Snapshots und Replikation ausgestattet ist. Diese Funktionen helfen, das Datenwachstum einzudämmen und unterstützen die SLA-getriebene Anpassung von Betriebsprozessen wie Backup, Restore und Disaster Recovery. Auch ist ein flexibles Management mit Möglichkeiten der Applikationsintegration ein wichtiges Entscheidungskriterium.

Storage-Insider.de: Auf welche Funktionen sollten Anwender bei ihren Speichersystemen achten, wenn sie viele virtuelle Maschinen betreiben wollen?

Wagmüller: Grundsätzlich sollte eine Storage-Architektur durchgängig redundant ausgelegt sein und mit RAID 6 maximalen Datenschutz ohne servicebedingte Unterbrechungszeiten bieten. Gerade in virtualisierten Umgebungen spricht die Dublettenhäufigkeit der Virtual Machines für integrierte Deduplikationsverfahren, um die erforderliche Kapazität gering zu halten. Software Features wie Snapshots, remote Replikation zum Desaster Recovery Schutz, Thin Replikation und virtuelles Klonen sind zusätzliche Pluspunkte, um den erhöhten SLA-Anforderungen virtualisierter Umgebungen Rechnung zu tragen und die Betriebseffizienz zu steigern. I/O-Lastprofile virtualisierter Umgebungen, gerade von VDI-Lösungen, profitieren darüber hinaus erheblich von Flash-basierten Caching-Architekturen. Wichtig ist es jedoch, all diese Mehrwerte unter einer einfachen und hoch integrierten Managementplattform zu vereinen. Die Integration in das Management der Hypervisor-Lösungen vereinfacht zudem die Betriebsabläufe über optional mögliche Aufgabendelegation innerhalb der internen IT.

Storage-Insider.de: Warum muss das Management von Speichersystemen einfacher werden?

Wagmüller: Bei steigenden Datenmengen und immer strengeren SLAs muss das IT-Personal mehr Zeit für Konzepte und eine Optimierung haben, statt sich mit Routineaufgaben auseinanderzusetzen. Eine möglichst einfache oder sogar automatisierte Steuerung und Überwachung der Standardaufgaben bringt Entlastung.

Storage-Insider.de: Warum wird das Speichern von Daten immer billiger?

Wagmüller: Da kommen mehrere Punkte zusammen. Erstens fällt der Preis pro Gigabyte bei drastisch steigenden Kapazitäten der Festplatten kontinuierlich. Zweitens drücken Effizienzfeatures wie Deduplizierung, virtuelles Klonen, Snapshots, Kompression und Thin Provisioning den generellen Bedarf an Kapazität. Drittens ermöglicht die Enterprise-Tauglichkeit kostengünstiger SATA-Disks mit hoher Speicherkapazität in Kombination mit I/O-unterstützenden Flash-Caches bei gegebenem RAID-6-Schutz den breiten Einsatz auch in Bereichen, in denen SATA alleine aus Performance-Gründen keine Chance hätte. Nur dank der günstigen Kostenentwicklung beim Preis pro Gigabyte und effizienzsteigernden Funktionen ist es möglich, die Datenexplosion in den Unternehmen wirtschaftlich und operativ zu bewältigen.

Storage-Insider.de: Ist Unified Storage der Weg zu einem einfacheren Management oder ist ein zentraler Speicherpool mit NAS-Gateways eine bessere Alternative?

Wagmüller: Echter Unified Storage hat deutliche Vorteile aufgrund der durchgängigen Integration und Abstimmung der Storage-Komponenten. Das wirkt sich auch auf Kompatibilität, Change-Management, integriertes operatives Management und Monitoring aus. Gateway-Lösungen wie die NetApp V-Series sind geeignet, bestehende Überkapazitäten einfacher SAN-Arrays mit NAS- und Unified-Storage-Funktionalitäten zu ergänzen und diese funktional zu erweitern. Bei Neuanschaffungen ist eine native Lösung zu empfehlen.

Storage-Insider.de: Wenn sich das Management und das Speichern von Daten in der Cloud durchsetzen sollte, brauchen wir dann überhaupt noch Speichersysteme für den Mittelstand?

Wagmüller: Ja. Selbst aggressive Trendprognosen gehen nur von einer anteiligen Nutzung Public-Cloud-basierter Services aus. Das Hybrid-Modell einer hoch standardisierten internen Private Cloud – oder besser Shared IT Infrastructure – im Mix mit Public Cloud Services ermöglicht es künftig, wirtschaftlich transparent den besten Speicherplatz für Daten eines Services auszuwählen. Hohe Sicherheits- und SLA-Anforderungen müssen dabei nicht geopfert werden.

Storage-Insider.de: Haben Sie schon Kunden, die produktive Daten, eine Datensicherung oder die Archivierung von Daten in der Cloud praktizieren?

Wagmüller: Ja. Backup-as-a-Service, Archivierung und remoter Disaster-Schutz werden aktuell unter Kunden diskutiert. Das Beziehen geeigneter Services aus der Public Cloud ist bereits Standard, auch wenn sie teilweise unbemerkt bleiben, da sie als webbasierte Applikationen für den Anwender vollkommen transparent sind.

(ID:2051587)