Aufrufe
vor 3 Jahren

01 | 2013 NEWS

  • Text
  • Risikovorsorge
  • Banken
  • News
  • Service
  • Experten
  • Performance
  • Risiken
  • Ziele
  • Sicherheit
  • Security
  • Banking
  • Technologie
  • Anforderungen
  • Ermittlung
  • Institute
  • Kapitalmarktfloater
  • Unternehmenssteuerung
  • Laufzeit
  • Bewertung
  • Produkte
Ein Balanceakt

u Business u Financial

u Business u Financial Business Intelligence Den größten Aufwand stellt dabei einmalig der Define-Schritt dar, in dem die Qualitätsanforderungen festgelegt werden. Während des Measure-Schritts wird bei jedem ETL-Durchlauf das Datenqualitätsniveau der aus den Quellsystemen extrahierten Daten gemessen. Die Ergebnisse dieser Messung werden anschließend im Analyse-Schritt bewertet. Danach erfolgen im Improve-Schritt – sofern möglich – Datenqualitätsverbesserungen. Eine Übersicht über die identifizierten Datenqualitätsprobleme sowie -verbesserungen wird abschließend im Control-Schritt gegeben. Define Im Define-Schritt werden im Rahmen eines umfangreichen Data Profilings einmalig Metadaten über die Daten in den Quellsystemen erhoben. Sie beschreiben den Zustand der Daten zum Zeitpunkt t0. Zu diesem Zeitpunkt sind (wenn überhaupt) nur bekannte Datenqualitätsprobleme vorhanden. Diese sind für das vorliegende Datenqualitätsmanagement aber irrelevant, schließlich geht es hier nur um neue, unbekannte Datenqualitätsprobleme. Die gesammelten Metadaten sind beispielsweise Wertebereiche, Werteverteilungen oder fachliche Zusammenhänge in den Quelldaten. Bei der operativen Anwendung des Datenqualitätsmanagements werden die vom ETL-Prozess verarbeiteten Daten mit den einmalig gesammelten Meta-Informationen verglichen. So können zum Zeitpunkt t1 Veränderungen der Daten seit dem Zeitpunkt t0 identifiziert und aus diesen Veränderungen auf neue Datenqualitätsprobleme geschlossen werden. Beispielsweise würde überprüft, ob in den vom ETL-Prozess extrahierten Daten wie zum Zeitpunkt t0 30 Prozent der Kunden männlich sind. Ein Anstieg auf 90 Prozent würde hier als potenzielles Datenqualitätsproblem identifiziert werden. Measure In diesem Schritt werden messbare Zielgrößen für die Datenqualität bestimmt. Diese werden fortan auch als Datenqualitätskennzahlen (DQ-Kennzahlen) bezeichnet. Aus der Anforderung nach inhaltlicher Korrektheit werden so beispielsweise die DQ-Kennzahlen „Anteil Werte nicht in Werteliste“, „Anteil ungenauer Werte“ oder „Anteil veralteter Informationen“ abgeleitet. Diese Kennzahlen werden bei jedem ETL-Lauf berechnet. Die Berechnung der Kennzahlen verteilt sich dabei auf zwei sogenannte Quality Gates, von denen jeweils eines in der Lade- (Quality Gate L) sowie in der Extraktionsschicht (Quality Gate E) des ETL-Prozesses zu finden ist (siehe Abbildung 1). Datenqualitätsprobleme aus den operativen Systemen werden frühzeitig im Quality Gate E (Extraktionsschicht) erkannt, um ein frühzeitiges Eingreifen in den zeitaufwendigen ETL-Prozess zu ermöglichen. Bei den Anforderungen nach der inhaltlichen Korrektheit der Daten ist eine erneute Berechnung der DQ-Kennzahlen in der Ladeschicht jedoch sinnvoll. Diese Kennzahlen werden in der Ladeschicht für solche Daten berechnet, die im Rahmen der Transformationsprozesse überhaupt erst neu entstanden sind. So kann die inhaltliche Korrektheit der zu Grunde liegenden Daten ein zweites Mal überprüft werden. Weiterhin können Transformationsprozesse den Umfang der Daten erhöhen / reduzieren. Daher ist es wichtig zu überprüfen, ob nach der Transformation überhaupt genügend Daten vorhanden sind. Analyse Im Analyse-Schritt werden die DQ-Kennzahlen sogenannten Qualitätslevels zugeordnet. Sie beschreiben den Erfüllungsgrad der Qualitätsanforderungen. Die DQ-Kennzahl „Pflicht-Attributs- Füllung“ könnte zum Referenzzeitpunkt t0 für das Feld Kundennummer beispielsweise 80 Prozent betragen haben. An diesem Wert kann die Zuordnung der DQ-Kennzahlenwerte zu den Qualitätslevels ausgerichtet werden. Werden während eines ETL-Laufs Ausprägungen über 80 Prozent gemessen, könnten diese dem Qualitätslevel 1 zugeordnet werden. Dieses Level beschreibt, dass keine neuen Datenqualitätsprobleme vorhanden sind. Ausprägungen zwischen 75 und 80 Prozent könnten dem Qualitätslevel 2 zugeordnet werden und so einen Hinweis auf eventuelle Probleme geben. Ausprägungen unter 75 Prozent könnten ein starker Hinweis auf neue Datenqualitätsprobleme sein. Derartige Zuordnungen von Kennzahlenwerten zu Qualitätslevels müssen bei der Entwicklung des Qualitätsmanagements fallspe- 50 I NEWS 01/2013

Business t Financial Business Intelligence t zifisch definiert werden. Der Grundgedanke bleibt jedoch immer der gleiche: Ein DQ-Kennzahlenwert wird dann dem Qualitätslevel 1 zugeordnet, wenn er ungefähr dem beim Data Profiling in der Define-Phase ermittelten Wert zum Zeitpunkt t0 entspricht. Improve Nach der Messung der DQ-Kennzahlen können einige Datenqualitätsprobleme automatisch behoben werden. Diese Verbesserung bezieht sich auf neuartige, bislang noch nicht vorhandene Datenqualitätsprobleme – schließlich werden bereits bekannte Probleme im Rahmen normaler Transformationsprozesse abgefangen. So lassen sich einige syntaktische und semantische Mängel in den Daten beheben. Beispielsweise könnten unbekannte Datumsformate automatisch in ein vom ETL-Prozess verarbeitbares Format übersetzt werden. Hierzu müsste dem Datenqualitätsmanagement ein Mapping aller gängigen Datumsformate zugrunde liegen. Control Im Control-Schritt wird die Datenqualität überwacht sowie der Erfolg der Improve-Maßnahmen gemessen. Dabei sind vor allem die DQ-Kennzahlenwerte wichtig, die auf mögliche Datenqualitätsprobleme hinweisen. Dies sind alle den Qualitätslevels 2 und 3 zugeordneten Werte. Sie könnten in einem textbasierten Report oder auf einem grafischen Datenqualitäts-Cockpit präsentiert werden. Ein solches DQ-Cockpit gibt einen Überblick über alle Kennzahlenwerte, die sich seit der Entwicklung des Datenqualitätsmanagements zum Zeitpunkt t0 stark verändert haben und daher Indizien für Datenqualitätsprobleme sind. Darüber hinaus könnte auf dem DQ-Cockpit der Erfolg der Verbesserungsmaßnahmen visualisiert werden. Die Hintergrundfarbe des Balkens in Abbildung 2 zeigt die Wertebereiche der Qualitätslevel. So werden alle Werte der DQ-Kennzahl „Pflicht-Attributs-Füllung“ bis 70 Prozent dem Qualitätslevel 3 zugeordnet. Der Balken zeigt, dass die Pflicht-Attributs-Füllung vor der Verbesserung mit 60 Prozent in Qualitätslevel 3 lag. Dies legt den Verdacht nahe, dass hier Datenqualitätsprobleme entstanden sein könnten. Die automatische Verbesserung der Datenqualität schaffte es laut Grafik, den Wert auf 75 Prozent zu erhöhen. Vergleich der Datenqualität DQ-Kennzahlen vor und nach der Verbesserung Pflicht-Attributs-Füllung F_Kunde_Status Abbildung 2: Visualisierung der Verbesserung der Datenqualität Fazit: frühzeitiges Erkennen von Datenqualitätsproblemen ist wichtig Auch wenn in der Praxis nicht alle Datenqualitätsprobleme automatisiert behoben werden können, ist es doch wichtig, solche Probleme zumindest möglichst schon beim Auftreten zu erkennen. Das dargestellte Konzept ermöglicht eine solche Erkennung von Datenqualitätsproblemen während der ETL-Verarbeitung. Nur durch diese „Datenqualitätswarnungen“ können die teils weitreichenden Folgen schlechter Datenqualität vermieden werden. Ansprechpartner 60% 75% 0% 25% 50% 75% 100% Qualitätslevel 1 Qualitätslevel 2 Qualitätslevel 3 Christoph Prellwitz Leiter CoC Financial Business Intelligence, msgGillardon AG > +49 (0) 6196 / 7750 - 5403 > christoph.prellwitz@msg-gillardon.de NEWS 01/2013 I 51

msg

01 | 2018 public
02 | 2017 public
01 | 2017 public
02 | 2016 public
01 | 2016 public
02 | 2015 public
01 | 2015 public
01 | 2014 public
01 | 2014 msg systems study
01 | 2015 msg systems Studienband
Future Utility 2030
Lünendonk® Trendstudie
Digitale Transformation | DE
Digital Transformation | EN
DE | inscom 2014 Report
EN | inscom 2014 Report

msgGillardon

02 | 2018 NEWS
03 | 2016 NEWS
02 | 2016 NEWS
01 | 2016 NEWS
03 | 2015 NEWS
02 | 2015 NEWS
01 | 2015 NEWS
02 | 2014 NEWS
01 | 2014 NEWS
02 | 2013 NEWS
01 | 2012 NEWS
02 | 2011 NEWS
01 | 2010 NEWS
MaRisk
01 | 2017 banking insight
01 | 2015 banking insight
01 | 2014 banking insight
01 | 2013 banking insight
01 | 2012 banking insight
02 | 2011 banking insight
01 | 2011 banking insight
01 | 2010 banking insight
2018 | Seminarkatalog | Finanzen

Über msg



msg ist eine unabhängige, international agierende Unternehmensgruppe mit weltweit mehr als 6.000 Mitarbeitern. Sie bietet ein ganzheitliches Leistungsspektrum aus einfallsreicher strategischer Beratung und intelligenten, nachhaltig wertschöpfenden IT-Lösungen für die Branchen Automotive, Banking, Food, Insurance, Life Science & Healthcare, Public Sector, Telecommunications, Travel & Logistics sowie Utilities und hat in über 35 Jahren einen ausgezeichneten Ruf als Branchenspezialist erworben.

Die Bandbreite unterschiedlicher Branchen- und Themenschwerpunkte decken im Unternehmensverbund eigenständige Gesellschaften ab: Dabei bildet die msg systems ag den zentralen Kern der Unternehmensgruppe und arbeitet mit den Gesellschaften fachlich und organisatorisch eng zusammen. So werden die Kompetenzen, Erfahrungen und das Know-how aller Mitglieder zu einem ganzheitlichen Lösungsportfolio mit messbarem Mehrwert für die Kunden gebündelt. msg nimmt im Ranking der IT-Beratungs- und Systemintegrationsunternehmen in Deutschland Platz 7 ein.


© 2018 by msg systems ag - powered by yumpu Datenschutz | Impressum