Montag, Juni 30, 2014

Datenmodellierungsverfahren für das Core Data Warehouse

Wieder nur ein Link: aus dem Hause Trivadis stammt das white paper Comparison of Data Modeling Methods for a Core Data Warehouse, geschrieben vom Autorenteam Maren Eschermann, Adriano Martino und Dani Schnider (dem ich gelegentlich versprochen habe, seinen Namen nicht mehr falsch zu schreiben). Das Papier erläutert die folgenden Modellierungsverfahren für die Core-Schicht des DWHs (also jene Ebene, die für die Integration von Daten aus unterschiedlichen Quellsystemen und für die Historisierung der Daten zuständig ist):
  • Dimensional Core Modeling with dimensions and fact tables (basierend auf Kimballs Methodologie)
  • Relational Core Modeling with master data versioning
  • Data Vault Modeling with Hubs, Satellites and Links (der geistige Urheber dieser Idee ist Dan Linstedt)
Dargestellt werden die Unterschiede hinsichtlich der Komplexität der Architektur, der Besonderheiten im ETL-Prozess, in der Historisierung und im Lifecycle-Management, sowie der Eigenschaften bei der Überführung der Core-Daten in die Data Marts - und besonders nützlich finde ich die Zusammenfassung im Abschnitt 7 mit einer Vergleichsmatrix zu den zentralen Punkten der Untersuchung und mit der Erklärung, welches Modell unter welchen Bedingungen seine besonderen Stärken (bzw. Schwächen) zeigt.

Keine Kommentare:

Kommentar veröffentlichen