Interview mit Jay Kidd von NetApp „Storage-Effizienz treibt den Einsatz von SATA-Disks und Deduplizierung voran“

Redakteur: Nico Litzel

Storage-Insider.de sprach mit NetApps Chief Marketing Officer Jay Kidd über Herausforderungen für Storage-Verantwortliche in Zeiten eines rasanten Datenwachstums und über Visionen des Unternehmens zum Rechenzentrum der Zukunft.

Firmen zum Thema

Jay Kidd, Chief Marketing Officer bei NetApp
Jay Kidd, Chief Marketing Officer bei NetApp
( Archiv: Vogel Business Media )

Welche Trends identifizieren Sie derzeit im Speichermarkt und welche Herausforderungen sehen Sie auf Anwender im Zusammenhang mit dem extremen Datenwachstum zukommen?

Jay Kidd: CIOs müssen eine anpassungsfähige und kosteneffektive IT-Infrastruktur bereitstellen, damit ihre Unternehmen sowohl auf Chancen als auch auf Gefährdungen reagieren können. Das erfordert die Fähigkeit, ein jährliches Datenwachstum zwischen 50 und 100 Prozent zu stemmen – und das bei Budgets, die deutlicher langsamer wachsen.

Storage-Effizienz, also mehr Daten auf weniger Festplatten speichern, treibt den Einsatz von SATA-Disks und Datendeduplizierungs-Techniken voran. Bei permanent laufenden Applikationen müssen Disk-basierende Datensicherheitslösungen in der Lage sein, die Möglichkeit und die Dauer eines Applikationsausfalls einzuschränken. Der weit verbreitete Einsatz von virtuellen Server-Techniken führt zu erheblichen Einsparungen bei Energie, Platzbedarf und Kühlung für schlecht ausgelastete Applikationsserver.

Gleichzeitig sorgt die Kopplung virtueller Server mit Networked Storage für eine weitaus flexiblere Infrastruktur, die die Business Continuity sicherstellt. Damit verlagert sich die Datenhaltung auf Networked Storage und es steigt der Bedarf an Systemen, die diese Daten effizienter speichern.

Für CIOs ist es schwierig, qualifizierte Mitarbeiter für die Konzeption und den Betrieb von Rechenzentren zu finden und zu halten. Ein Speichersystem muss heute daher einfach zu bedienen sein, damit auch weniger erfahrene Mitarbeiter mehr Routine-Aufgaben beim Storage-Management übernehmen können. Der Trend geht dahin, dass Storage-Architekten Datenmanagement-Richtlinien für die Besitzer der Daten und für Administratoren definieren. Dadurch haben erfahrenere Mitarbeiter mehr Zeit für Planungsaufgaben.

Was sind momentan die größten Herausforderungen der Kunden und wie löst NetApp diese?

Jay Kidd: Aus Gesprächen mit unseren Kunden wissen wir, dass die größte Herausforderung darin liegt, das Datenwachstum bei stagnierenden Budgets zu managen und die Flexibilität der Infrastruktur zu erhalten. Wir unterstützen unsere Kunden mit Storage- und Datenmanagement-Systemen, deren Auslastungsgrad bei 70 Prozent liegt. Der Branchendurchschnitt liegt bei 40 Prozent. Zudem liefern wir Software, mit der sich einfache Datenmanagement-Aufgaben wie die Volume-Anpassung oder das Erstellen von Snapshot-Kopien in Enterprise-Applikationen wie Oracle, SQLServer, Exchange, SharePoint, SAP oder Virtual Server integrieren lassen.

Die Besitzer der Daten können so Routine-Arbeiten selbst ausführen und die Belastung für das Storage-Management-Personal wird verringert. Unsere Unified-Storage-Systeme unterstützen gleichzeitig NAS, SAN und iSCSI und bieten dadurch größtmögliche Flexibilität und Wahlfreiheit in der Nutzung von Storage-Kapazitäten für Applikationen.

Die Performance unserer Systeme trägt deutlich zur Verbesserung von Geschäftsabläufen bei. Beispielsweise verkürzten sich bei der Softwarefirma Cadence Software die Qualitätssicherungszyklen für Software um 75 Prozent. Das bedeutet mehr Qualität und kürzere Entwicklungszeiten.

Das gilt auch für SAP-Anwender. Applikationsentwicklung und Tests für SAP werden mithilfe unserer virtuellen Klontechnik um 70 Prozent schneller. Verbesserte Applikationen gehen so schneller Live. Ob Halbleiterentwicklung oder Filmanimationen – mit hoch performanten NetApp-FAS-Systemen werden die Prozesse schneller.

Welche Vision hat NetApp vom Rechenzentrum in zehn Jahren?

Jay Kidd: Das Datacenter wird sich in puncto Betriebsflexibilität und niedrigeren Kosten pro Betriebseinheit deutlich weiterentwickeln. Applikationen werden sich zu „Component Services“ wandeln, die in der Kommunikation untereinander, im gemeinsamen Verwalten gemeinsamer Datenbestände und in der Anpassungsfähigkeit an neue Bedingungen deutlich flexibler sein werden.

Endanwender werden darüber hinaus nicht mehr nur von ihren Bürocomputern und Laptops auf Daten zugreifen, sondern verstärkt über mobile Geräte mit Sprachsteuerung. Die Netzwerkinfrastruktur wird auf Ethernet-Technik mit unterschiedlichen Geschwindigkeiten konvergieren, wobei zwischen der internen, externen und der Infrastruktur von Partner oder Kunden dynamische Verbindungen bestehen.

Die Server-Technik wird in Rechnerfarmen gebündelt, die Lasten je nach geplanten oder gewünschten Geschäftszyklen dynamisch managen. Da Daten schneller wachsen, als Server- und Netzwerk-Ressourcen verbraucht werden, wird der Storage immer mehr Raum einnehmen. Und der Storage wird sich zu kostengünstigen, verbrauchsarmen und aktiv geschützten Archiven in Exabyte-Größe entwickeln, die viel kleinere, hoch performante Storage Pools für Produktivdaten unterstützen.

Applikationen, Server und Daten werden virtualisiert sein. Sie werden dynamisch sein und die Fähigkeit besitzen, auf verschiedenen physischen Komponenten zu laufen. Diese Komponenten lassen sich ohne Auswirkungen für Anwender und Applikationen austauschen.

All das wird anhand von Richtlinien gemanagt werden, um den Betrieb einzelner Komponenten zu optimieren. Das Management wird nach dem Ausnahmeprinzip auf Application Service Level erfolgen. Die architektonische Planung wird auf das Geschäftswachstum abgestimmt sein.

Warum und wie müssen sich also Rechenzentren verändern?

Jay Kidd: Viele Datacenter arbeiten heute immer noch als Applikationssilos mit Equipment, Abläufen, Budget und Personal. Das wird bislang in kleinen statischen Ressourcen-Pools gemanagt. Und das führt unweigerlich zu einem zunehmenden und unüberschaubaren Wachstum an Infrastruktur-, Personal- und Energiekosten bei stetig sinkenden Service-Levels. Damit eine Infrastruktur dynamisch und flexibel bleibt, empfehle ich Unternehmen folgendes:

  • Zentralisieren der Entscheidungen zur Infrastruktur, zu Betriebsabläufen, Budgetierung etc.
  • Konsolidieren von Equipment, Personal und Einrichtungen, wo immer möglich, um Skaleneffekte zu erzielen und Budgets für wichtige Verbesserungen freizusetzen.
  • Standardisieren auf weniger Möglichkeiten zur Umsetzung derselben Aufgaben, sodass ein höherer Auslastungsgrad und detailliertes Know-how beim Personal entstehen kann. Alles, was nicht strategisch oder sehr umfangreich ist, sollte man outsourcen.
  • Virtualisieren von Server und Storage für mehr Agilität und Dynamik. Hardware hat einen Lebenszyklus, Applikationen und Daten hingegen nicht. Folglich sollte man sie trennen.
  • Automatisieren! Wenn konsolidiert, standardisiert und virtualisiert wurde, sollte man Best Practices festlegen und automatisieren. Die Überprüfung sollte nach dem Ausnahmeprinzip und bei strenger Richtliniendefinition geschehen. Es empfiehlt sich, alles zu messen, da man nicht verwalten kann, was nicht messbar ist. Automatisierung wiederum setzt voraus, dass man weiß, was wie zu managen ist.

Nicht vergessen werden sollte zudem eine Verbesserung der Energieeffizienz. Alles in allem haben Unternehmen, die diese Empfehlungen befolgen, den Vorteil einer längeren Lebenszeit ihrer Einrichtungen und weniger Betriebsunterbrechungen aufgrund immer wiederkehrender Umbaumaßnahmen.

(ID:2014035)