Mobile-Menu

Interview mit Uwe Kannegießer, Premium-Partner der Storage Technology Conference 2015 Mit dem NetApp Cloud Manager den Inter-Cloud-Transport organisieren

Redakteur: Rainer Graefen |

Ein wesentlicher Aspekt bei der Nutzung von Cloud Services wird in Zukunft die Nähe zum Cloud Provider werden. Der Anwender sollte die Netzwerkbandbreite, Automatisierung und eine gut funktionierende Provisionierung seiner Applikationen im Griff haben, damit die Cloud-Benutzung auch zu einem Aha-Erlebnis wird.

Anbieter zum Thema

Uwe Kannegießer, Director Advanced Solution bei Ingram Micro
Uwe Kannegießer, Director Advanced Solution bei Ingram Micro
( Ingram Micro)

Storage-Insider: Wie muss sich das On-Premise-Rechenzentrum ändern, damit es in einer Hybrid Cloud eine flexible Erweiterung besitzt?

Uwe Kannegießer: Eine entsprechend schnelle Anbindung des On-Premise-Rechenzentrums an das Rechenzentrum des Cloud-Anbieters stellt hierbei einen der wichtigsten Punkte dar. Im selben Zuge sollten jedoch auch eine gut funktionierende Automatisierung und automatische Provisionierung implementiert sein, um die Flexibilität und die Agilität des Cloud-Anteils in der Hybrid Cloud optimieren zu können.

OpenStack gilt als das zukünftige Transportverfahren für strukturierte und unstrukturierte Daten zwischen Cloud-Rechenzentren. Wie werden bei der Netapp Data Fabric die Daten migriert?

Uwe Kannegießer: Dabei kommen zwei seit Jahren bekannte und geschätzte Mechanismen seitens NetApp ins Spiel – SnapMirror und SnapVault. Bisher nur für Backup und Desaster Recovery eingesetzt, wird diesen beiden Tools nun noch eine weitere Rolle zuteil. Mithilfe des „NetApp Cloud Managers“ besteht die Möglichkeit diese sehr einfach als Transportmittel in der Cloud zu nutzen.

Lässt sich die Datenverarbeitung in einem Hybrid-Cloud-Modell so beeinflussen, dass schützenswerte Daten nur in der Private Cloud benutzbar sind?

Uwe Kannegießer: Um schützenswerte Daten nur in der Private Cloud zu nutzen, haben sich zwei Modelle bewährt. Die erste Option besteht darin, die entsprechenden Daten nur „On-Premise“ zu halten und dementsprechend zu verarbeiten.

Des Weiteren bietet sich die Möglichkeit an, die Compute-Leistung über die Cloud zu beziehen, während der Datenbestand auf einem eigenen Storage liegt. Jedoch ist dabei zwingend eine sehr gute und kurze Anbindung an die Cloud-Provider notwendig.

Die Datenspeicherung in der Cloud hat einen Nachteil. Zwar ist die Kapazität leicht erweiterbar, höhere I/O-Raten scheinen allerdings mehr ein Zufallsergebnis zu sein. Stimmt das?

Uwe Kannegießer: Die Essenz einer höheren I/O-Rate liegt wie auch bei einem „On-Premise-Storage“ im „Sizing“ und dem „Layout“. Damit ein zufriedenstellendes Ergebnis erreicht werden kann, müssen im Vorfeld die entsprechenden I/O-Anforderungen genau analysiert und selektiert werden. Hierzu bieten verschiedene Provider unterschiedliche Modelle und Konfigurationen an.

Erfahrungen von Anwendern mit der Umwidmung ihres Computers zu einem Terminal sind derzeit eher frustrierend. Was ist zu tun, damit sich die Antwortzeiten in einem vernünftigen Rahmen bewegen?

Uwe Kannegießer: Um die Rechenleistung effektiv vom Arbeitsplatz in das Rechenzentrum auszulagern, muss man einige wenige Punkte beachten. Das Netzwerk sollte als erstes unter die Lupe genommen werden, denn hier entsteht nun ein viel höherer Traffic als in einer herkömmlichen Umgebung.

Deshalb müssen auch im Netzwerk-Core gegebenenfalls Neuanschaffungen getätigt werden. Zu guter Letzt muss sichergestellt werden, dass auch das zentrale Storage mit ausreichend „Read-Caches“ ausgestattet ist, damit die Antwortzeiten in einen akzeptablen Rahmen gebracht werden können.

(ID:43293453)