Datentransfer zwischen Clouds

Data Movement: In Clouds kommt mehr Bewegung

Seite: 2/3

Firmen zum Thema

1. Cloud als Backup für große, lokale Datenmengen

Wenn Big-Data-Umgebungen in eine Cloud übertragen und dort regelmäßig gesichert werden sollen, kann eine Lösung wie Attunity CloudBeam File-Cloud Replication hilfreich sein. Diese Lösung wird als SaaS (Software as a Service) angeboten und erlaubt automatisierte, gesicherte Uploads und Downloads zwischen lokalen IT-Strukturen und AWS S3-Umgebungen. Durch die Unterstützung beider Transferrichtungen und durch die Automatisierung kann gewährleistet werden, dass Vor-Ort-Daten und Cloud-Daten fortlaufend synchronisiert werden. Für die Geschwindigkeit der Transfers ist entscheidend, dass nur Änderungen an den Daten übertragen werden (Comparative Snapshot Technology, CST). Dabei wird die Sicherheit der Datentransfers durch Verschlüsselung und der Forderung nach Authentifizierung gewährleistet.

Eine weitere Möglichkeit, lokale Daten schnell und automatisiert in eine AWS-Umgebung oder Daten von einer AWS-Umgebung in interne IT-Strukturen zu übertragen, bietet Aspera On Demand for Amazon Web Services, für Windows Azure-Umgebungen als Quelle oder Ziel der Datenübertragung gibt es Aspera On Demand for Microsoft Windows Azure. Datentransfers zu und von beliebigen Cloud-Umgebungen können mit Aspera Shares bewerkstelligt werden.

Bildergalerie

Die AWS Data Pipeline von Amazon Web Services kann zeitgesteuert und automatisiert Daten aus lokalen IT-Strukturen hin zu AWS-Diensten wie Amazon S3, Amazon RDS, Amazon DynamoDB und Amazon Elastic MapReduce (EMR) übertragen, aber auch zwischen verschiedenen AWS-Cloud-Umgebungen.

2. Automatisierung von Analysen und anderen Datenprozessen

Bei AWS Data Pipeline können komplette Datenprozesse definiert und automatisiert werden, von unterschiedlichen Datenquellen, die nach vorgegebenen Regeln zu bestimmten Zeitpunkten verarbeitet und deren Ergebnisse an einen definierten Ort übertragen werden.

Ein Anwendungsbeispiel sind Big-Data-Analysen aus verschiedenen Datenquellen, deren Resultate automatisch an die Entscheider im Unternehmen geschickt werden. Die AWS Data Pipeline ermöglicht es zudem, vor einem definierten Verarbeitungsschritt jeweils die notwendigen Voraussetzungen zu prüfen, wie zum Beispiel das Vorliegen bestimmter, aktueller Daten. Das Fehlen bestimmter Voraussetzungen kann ebenso wie bestimmte Verarbeitungsfehler zu einer automatischen Benachrichtigung führen. Die Konfiguration der AWS Data Pipeline erfolgt zum Beispiel über die AWS Management Console. Verschiedene Datenprozesse sind dort bereits als Vorlagen definiert, die für die eigene Data Pipeline genutzt werden können, zum Beispiel die stündliche Analyse von Log-Dateien.

Artikelfiles und Artikellinks

(ID:37740640)