Delta Lake: Eine neue Speicherschicht
Aufbau zuverlässiger Data Lakes
Die zuverlässige Bereitstellung von qualitativ hochwertigen Daten ist für Datenanalyse-Initiativen ein entscheidender Faktor. Ganz gleich, ob es sich dabei um regelmäßige Berichte oder fortgeschrittene Analyseprojekte handelt.
Die dafür verantwortlichen Dateningenieure müssen daher beim Aufbau der Datenpipelines verschiedene Anforderungen beachten. Die Prioritäten liegen vor allem auf der Qualität der Daten. Fehler oder Lücken bei Daten können zu falschen Schlussfolgerungen führen. Ebenso wichtig ist die Geschwindigkeit, mit der die Daten zur Verfügung gestellt werden können. Aber auch die Skalierbarkeit, ohne hohen operativen Aufwand ist hier zu berücksichtigen.
Anbieter des Whitepapers
Kostenloses Whitepaper herunterladen