Aufrufe
vor 3 Jahren

01 | 2013 NEWS

  • Text
  • Risikovorsorge
  • Banken
  • News
  • Service
  • Experten
  • Performance
  • Risiken
  • Ziele
  • Sicherheit
  • Security
  • Banking
  • Technologie
  • Anforderungen
  • Ermittlung
  • Institute
  • Kapitalmarktfloater
  • Unternehmenssteuerung
  • Laufzeit
  • Bewertung
  • Produkte
Ein Balanceakt

u Business u Financial

u Business u Financial Business Intelligence Ein durch Datenqualitätsmängel hervorgerufenes Problemfeld für Finanzinstitute ist eine fehlerhafte Berechnung der notwendigen Eigenkapitalunterlegung gemäß den Basel-Vorgaben. Dies geschieht beispielsweise dann, wenn Sicherheiten den Kunden doppelt zugerechnet werden oder von Anfang an doppelt in den Daten vorhanden waren. Eine weitere negative Auswirkung mangelhafter Datenqualität betrifft Kunden und Finanzinstitute zugleich: Bankkunden werden zu Mitbewerbern getrieben, wenn sie zu schlecht geratet werden und dadurch ein zu schlechtes Kreditangebot erhalten. Die Liste negativer Auswirkungen könnte noch lange so fortgeführt werden. Beide Beispiele zeigen aber bereits, wie brisant das Thema Datenqualität heutzutage für Finanzdienstleister ist. Zielsetzung des Datenqualitätsmanagements weitaus größeres Spektrum an Datenmissständen aufzudecken, als dies mit dem traditionellen Ansatz möglich ist. Verdoppeln sich etwa innerhalb eines Monats die Hälfte aller Kontostände, würde dies beim traditionellen Ansatz nicht auffallen. Schließlich ist eine solche Verdoppelung zwar sehr unwahrscheinlich, aber durchaus möglich. Der nachfolgend vorgestellte Ansatz erkennt solche „außergewöhnlichen Änderungen in den Daten“ und ermöglicht so das automatische Erkennen bislang unbekannter Datenqualitätsprobleme. Mögliche Fehlerquellen und Ursachen Für das Konzept wird angenommen, dass vorhandene Datenqualitätsprobleme bereits in den Quellsystemen bestehen. Die ETL- Verarbeitung, so die Annahme, arbeitet fehlerfrei und lässt keine neuen Datenqualitätsprobleme entstehen. Die wichtigste Datengrundlage für Entscheidungen und das Berichtswesen bilden in vielen Instituten Data Warehouses, in denen die Daten der vielen heterogenen IT-Systeme integriert zusammengefasst sind. Die Qualität dieser Daten sollte bereits bei der Befüllung des Data Warehouses im Rahmen der ETL-Verarbeitung (Extract, Transform, Load) sichergestellt werden. Beim traditionellen Ansatz eines Datenqualitätsmanagements werden dabei diejenigen Daten automatisch korrigiert, die zweifelsfrei als fehlerhaft identifiziert werden können. In der Praxis können automatisierte Prozesse jedoch nur in den seltensten Fällen Daten identifizieren, die mit absoluter Sicherheit falsch sind. Schließlich kann eine Software nicht unterscheiden, ob der Anstieg eines Kontostandes von 100 Euro auf zehn Millionen Euro ein Fehler in den Daten ist oder tatsächlich stattgefunden hat. Das vorliegende Konzept folgt einem anderen Ansatz. Das Ziel des Datenqualitätsmanagements ist nicht wie beim traditionellen Ansatz die automatische Verbesserung von bekannten Datenfehlern. Der Fokus liegt auf der automatischen Erkennung von neuen, noch unbekannten Datenqualitätsproblemen. Dies ermöglicht es, ein Die Ursachen für Datenqualitätsprobleme in den Quellsystemen sind vielschichtig. Ein klassisches Beispiel ist die Einführung neuer Finanzprodukte durch die Fachabteilungen. Da diese auf Datenebene anders ausgestaltet sind als bisherige (bekannte) Produkte, können sie von den vorhandenen ETL-Prozessen unter Umständen nicht automatisiert verarbeitet werden. Dies führt dann zu einer Beeinträchtigung der Ergebnisse der ETL-Prozesse. Andere mögliche Ursachen sind Währungsumrechnungen mit falschen Wechselkursen oder die Verarbeitung von Geldbeträgen unter Annahme einer falschen Währung. Solche Beispiele führen die Brisanz des Themas Datenqualität erneut vor Augen, wenn den Instituten bewusst wird, dass alle genannten Beispiele in der Praxis anzutreffen sind. Konzeption eines Datenqualitätsmanagements entlang des DMAIC-Zyklus Das im Rahmen der Master-Thesis entwickelte Datenqualitätsmanagement wurde entlang des aus Six Sigma bekannten DMAIC-Zyklus (Define – Measure – Analyze – Improve – Control) konzipiert. 48 I NEWS 01/2013

Data Warehouse Die Daten müssen inhaltlich korrekt sein. Der Umfang der Daten muss ausreichend hoch sein. > Anteil Werte nicht in Wertebereich > Werteverteilung > Anteil Abweichung vom Prognosewert > Abweichung vom Prognosewert > Umfang der Daten Quality Gate L Transformationsprozesse Die Daten müssen aussagekräftig sein. > Anzahl der Datensätze nicht ausreichend Metadatenmanagement Die Daten müssen die fachliche Logik erfüllen. Die Daten müssen inhaltlich korrekt sein. Primär- und Fremdschlüsselbeziehungen müssen stimmen. > Anteil Business-Rule verletzt > Pflicht-Attributs-Füllung > Anteil ungenauer Werte > Anteil Werte nicht in Wertteste > Anteil Werte nicht in Wertebereich > Werteverteilung > Anteil veralteter Informationen > Anteil nicht eindeutiger Primärschlüssel > Anteil referentieller Probleme Quality Gate E Die technischen Eigenschaften der Daten müssen korrekt sein. > Abweichung Datentyp > Anteil Abweichung Datentyp-Werteebene > Anteil Abweichung Syntax Die Daten müssen vollständig aus den Datenquellen extrahiert worden sein. > Abweichung Tabellenanzahl > Abweichung Attributs-Anzahl > Abweichung Attributs-Namen > Abweichung Anzahl Datensätze mit Quellsystem > Abweichung Anzahl Datensätze mit vorherigem ETL-Lauf Datenqualitätsanforderung Datenquellen DQ-Kennzahl Abbildung 1: Aufbau des Datenqualitätsmanagements NEWS 01/2013 I 49

msg

01 | 2018 public
02 | 2017 public
01 | 2017 public
02 | 2016 public
01 | 2016 public
02 | 2015 public
01 | 2015 public
01 | 2014 public
01 | 2014 msg systems study
01 | 2015 msg systems Studienband
Future Utility 2030
Lünendonk® Trendstudie
Digitale Transformation | DE
Digital Transformation | EN
DE | inscom 2014 Report
EN | inscom 2014 Report

msgGillardon

02 | 2018 NEWS
03 | 2016 NEWS
02 | 2016 NEWS
01 | 2016 NEWS
03 | 2015 NEWS
02 | 2015 NEWS
01 | 2015 NEWS
02 | 2014 NEWS
01 | 2014 NEWS
02 | 2013 NEWS
01 | 2012 NEWS
02 | 2011 NEWS
01 | 2010 NEWS
MaRisk
01 | 2017 banking insight
01 | 2015 banking insight
01 | 2014 banking insight
01 | 2013 banking insight
01 | 2012 banking insight
02 | 2011 banking insight
01 | 2011 banking insight
01 | 2010 banking insight
2018 | Seminarkatalog | Finanzen

Über msg



msg ist eine unabhängige, international agierende Unternehmensgruppe mit weltweit mehr als 6.000 Mitarbeitern. Sie bietet ein ganzheitliches Leistungsspektrum aus einfallsreicher strategischer Beratung und intelligenten, nachhaltig wertschöpfenden IT-Lösungen für die Branchen Automotive, Banking, Food, Insurance, Life Science & Healthcare, Public Sector, Telecommunications, Travel & Logistics sowie Utilities und hat in über 35 Jahren einen ausgezeichneten Ruf als Branchenspezialist erworben.

Die Bandbreite unterschiedlicher Branchen- und Themenschwerpunkte decken im Unternehmensverbund eigenständige Gesellschaften ab: Dabei bildet die msg systems ag den zentralen Kern der Unternehmensgruppe und arbeitet mit den Gesellschaften fachlich und organisatorisch eng zusammen. So werden die Kompetenzen, Erfahrungen und das Know-how aller Mitglieder zu einem ganzheitlichen Lösungsportfolio mit messbarem Mehrwert für die Kunden gebündelt. msg nimmt im Ranking der IT-Beratungs- und Systemintegrationsunternehmen in Deutschland Platz 7 ein.


© 2018 by msg systems ag - powered by yumpu Datenschutz | Impressum