Aufrufe
vor 1 Jahr

01 | 2017 NEWS

  • Text
  • Banken
  • Planung
  • Anforderungen
  • Unternehmenssteuerung
  • Aufsicht
  • Risiko
  • Baseler
  • Sparkasse
  • Devops
  • Msggillardon
Überblick

u Unternehmenssteuerung

u Unternehmenssteuerung Dashboards Reporting, Ad-hoc-Analysen Standardisierte Schnittstellen Klassisch: Data Marts Rechenkerne und Anwendungen Zentraler, integrierter Datenpool DWH (In-Memory) Kennzahlen- Repository Platte neue Welt: Querys und Berechnungen in Echtzeit Historisierung Metadaten- Repository Metadaten-Management Warehouse-Management DQ-Management Standardisierte Schnittstellen Datenextraktion Quellsysteme Abbildung 1: (Near-)Realtime: In-Memory und Kennzahlen-Repository ermöglichen Reports in (Fast-)Echtzeit. Der grundlegende Unterschied von der heutigen zur zukünftigen Welt liegt in den Eigenschaften von „Streaming“-Daten. Streaming bedeutet, dass Daten (theoretisch) rund um die Uhr nach dem Push- Prinzip veröffentlicht werden. Reuters und Twitter sind zwei bekannte Beispiele für Unternehmen beziehungsweise Technologien, die Informationen streamen: Sobald es eine Neuigkeit gibt, wird sie an alle Empfänger verteilt. Die Krux dabei ist: Als Nutzer wissen Sie nie, welche dieser Informationen gerade für Sie Relevanz haben. Die erste Herausforderung besteht also für Ihr Unternehmen darin, die wesentlichen von den unwesentlichen Informationen zu unterscheiden. Dazu kommt, dass die Streaming-Dienste völlig unterschiedliche Datenformate vorweisen. Die Bandbreite reicht von csv-Dateien über Prosatexte aus Blogs bis hin zu Videoformaten. Folglich ist die zweite Herausforderung, diese Datenformate in die Struktur Ihres Datenhaushalts zu integrieren. In einem ersten Schritt müssen die Daten von Twitter und Reuters in die Datenwelt Ihres Unternehmens gelangen. Da es sich um Daten handelt, die fortlaufend nach dem Push-Prinzip entstehen, sind Mechanismen notwendig, die fortwährend ihr „Ohr“ an diese Streams halten und die Daten aus den Streams in eine Datenbank schreiben, die unter Ihrer Datenhoheit steht. Diese temporären Data Stores speichern die Daten nur so lange, bis sie weiterverarbeitet wurden. Für Ihre internen Bestandssysteme mit sogenannten In-situ-Daten, also Daten der „alten“ Welt mit klaren Strukturen und Gültigkeitszeitpunkten, können Sie entweder ebenso vorgehen oder einfach Ihre bestehenden Datenbewirtschaftungsprozesse weiternutzen. Diese In-situ-Daten können dann entweder auf bekanntem Weg in Ihr DWH gelangen. Oder Sie lassen Teile daraus in Ihren Data Lake fließen. Für den Data Lake werden die Streaming-Daten sowohl technisch (zippen, …) als auch inhaltlich komprimiert, beispielsweise nach Zeitscheiben aggregiert. Wichtig: Dafür muss bekannt sein, welche Daten aus den temporären Data Stores auf welche Weise komprimiert werden sollen. Sollen die Marktdaten auf Sekunden- oder gar auf Zehntel-Sekunden-Basis aggregiert werden? Können bei Blogeinträgen die enthaltenen Grafiken gelöscht werden oder müssen sie für weitere Analysen erhalten bleiben? Bereits hier müssen daher weitreichende Entscheidungen getroffen werden und eine Anbindung an das Metadaten-Repository ist Pflicht. Nun folgt die Königsdisziplin: die Strukturierung und Kombination der unprozessierten Rohdaten. Sogenannte Data-Scientists 16 I NEWS 01/2017

Unternehmenssteuerung t Dashboards entscheiden Data Marts auswerten Rechenkerne und Anwendungen berechnen Zentraler, integrierter Datenpool historisiertes DWH aufbereitete Data Stores Datenbewirtschaftung Data Lake Datenbewirtschaftung Temporäre Data Stores In-situ-Daten säubern, kombinieren Stream-Daten strukturieren unprozessierte Rohdaten komprimieren Metadaten- Repository Metadaten-Management Warehouse-Management DQ-Management Datenbewirtschaftung push and pull Quellsysteme klassisch neue Welt Abbildung 2: Analytic Excellence: Die Datenbewirtschaftung bis zum DWH verändert sich in der neuen Welt grundlegend. definieren und selektieren Felder aus den Rohdaten. Sammeln Sie nur Datum und Name jenes Post-Verfassers, der auf Twitter Ihren Kundenservice kritisiert? Oder auch die weiteren Tweets des Verfassers und dessen Kontaktliste? Apropos Kontaktliste: Über Fremdschlüssel werden Tabellen miteinander verknüpft und Beziehungen hergestellt. Wie umfassend selektiert werden muss, hängt auch von der Leistungsfähigkeit Ihrer Datenbank ab – je leistungsfähiger, desto mehr (scheinbar nutzlose) Daten können Sie sammeln, die später einmal ungeahnten Nutzen bringen können … Eine Säuberung der Daten, beispielsweise die Bereinigung um Redundanz oder unbrauchbare Meta-Informationen, kann möglicherweise auch schon im Schritt davor erfolgen. Im zweiten Teil unserer Artikelreihe lesen Sie: > > Wie Sie mit Selfservice-BI (auch bekannt als Sandboxing) Ihren Fachbereichen neue Möglichkeiten der individuellen Datenauswertung eröffnen und welche entscheidende Rolle die IT dabei spielt. > > Eine aufsichtsrechtskonforme BI-Finanz-Architektur ohne klassisches Data Warehouse – geht das denn überhaupt? Ansprechpartner Die derart aufbereiteten Daten verfügen nun über die gleiche Datenqualität wie die „klassischen“ DWH-Daten. Sie können entweder für Berechnungen in den Banksteuerungsanwendungen verwendet oder im DWH historisiert werden. Mathis Manz IT Consultant Sparkassen-Finanzgruppe > +49 (0) 89 / 94 3011 - 0 > mathis.manz@msg-gillardon.de Quellen/Referenzen: Pekka Pääkkönen, Daniel Pakkala (2015): Reference Architecture and Classification of Technologies, Products and Services for Big Data Systems. Big Data Research, Volume 2, Issue 4, Pages 166–186 NEWS 01/2017 I 17

msg

01 | 2018 public
02 | 2017 public
01 | 2017 public
02 | 2016 public
01 | 2016 public
02 | 2015 public
01 | 2015 public
01 | 2014 public
01 | 2014 msg systems study
01 | 2015 msg systems Studienband
Future Utility 2030
Lünendonk® Trendstudie
Digitale Transformation | DE
Digital Transformation | EN
DE | inscom 2014 Report
EN | inscom 2014 Report

msgGillardon

03 | 2016 NEWS
02 | 2016 NEWS
01 | 2016 NEWS
03 | 2015 NEWS
02 | 2015 NEWS
01 | 2015 NEWS
02 | 2014 NEWS
01 | 2014 NEWS
02 | 2013 NEWS
01 | 2012 NEWS
02 | 2011 NEWS
01 | 2010 NEWS
MaRisk
01 | 2017 banking insight
01 | 2015 banking insight
01 | 2014 banking insight
01 | 2013 banking insight
01 | 2012 banking insight
02 | 2011 banking insight
01 | 2011 banking insight
01 | 2010 banking insight
2016 | Seminarkatalog | Finanzen

Über msg



msg ist eine unabhängige, international agierende Unternehmensgruppe mit weltweit mehr als 6.000 Mitarbeitern. Sie bietet ein ganzheitliches Leistungsspektrum aus einfallsreicher strategischer Beratung und intelligenten, nachhaltig wertschöpfenden IT-Lösungen für die Branchen Automotive, Banking, Food, Insurance, Life Science & Healthcare, Public Sector, Telecommunications, Travel & Logistics sowie Utilities und hat in über 35 Jahren einen ausgezeichneten Ruf als Branchenspezialist erworben.

Die Bandbreite unterschiedlicher Branchen- und Themenschwerpunkte decken im Unternehmensverbund eigenständige Gesellschaften ab: Dabei bildet die msg systems ag den zentralen Kern der Unternehmensgruppe und arbeitet mit den Gesellschaften fachlich und organisatorisch eng zusammen. So werden die Kompetenzen, Erfahrungen und das Know-how aller Mitglieder zu einem ganzheitlichen Lösungsportfolio mit messbarem Mehrwert für die Kunden gebündelt. msg nimmt im Ranking der IT-Beratungs- und Systemintegrationsunternehmen in Deutschland Platz 7 ein.


© 2018 by msg systems ag - powered by yumpu Datenschutz | Impressum