Aufrufe
vor 7 Monaten

01 | 2017 NEWS

  • Text
  • Banken
  • Planung
  • Anforderungen
  • Unternehmenssteuerung
  • Aufsicht
  • Risiko
  • Baseler
  • Sparkasse
  • Devops
  • Msggillardon
Überblick

u Unternehmenssteuerung

u Unternehmenssteuerung Dashboards Reporting, Ad-hoc-Analysen Standardisierte Schnittstellen Klassisch: Data Marts Rechenkerne und Anwendungen Zentraler, integrierter Datenpool DWH (In-Memory) Kennzahlen- Repository Platte neue Welt: Querys und Berechnungen in Echtzeit Historisierung Metadaten- Repository Metadaten-Management Warehouse-Management DQ-Management Standardisierte Schnittstellen Datenextraktion Quellsysteme Abbildung 1: (Near-)Realtime: In-Memory und Kennzahlen-Repository ermöglichen Reports in (Fast-)Echtzeit. Der grundlegende Unterschied von der heutigen zur zukünftigen Welt liegt in den Eigenschaften von „Streaming“-Daten. Streaming bedeutet, dass Daten (theoretisch) rund um die Uhr nach dem Push- Prinzip veröffentlicht werden. Reuters und Twitter sind zwei bekannte Beispiele für Unternehmen beziehungsweise Technologien, die Informationen streamen: Sobald es eine Neuigkeit gibt, wird sie an alle Empfänger verteilt. Die Krux dabei ist: Als Nutzer wissen Sie nie, welche dieser Informationen gerade für Sie Relevanz haben. Die erste Herausforderung besteht also für Ihr Unternehmen darin, die wesentlichen von den unwesentlichen Informationen zu unterscheiden. Dazu kommt, dass die Streaming-Dienste völlig unterschiedliche Datenformate vorweisen. Die Bandbreite reicht von csv-Dateien über Prosatexte aus Blogs bis hin zu Videoformaten. Folglich ist die zweite Herausforderung, diese Datenformate in die Struktur Ihres Datenhaushalts zu integrieren. In einem ersten Schritt müssen die Daten von Twitter und Reuters in die Datenwelt Ihres Unternehmens gelangen. Da es sich um Daten handelt, die fortlaufend nach dem Push-Prinzip entstehen, sind Mechanismen notwendig, die fortwährend ihr „Ohr“ an diese Streams halten und die Daten aus den Streams in eine Datenbank schreiben, die unter Ihrer Datenhoheit steht. Diese temporären Data Stores speichern die Daten nur so lange, bis sie weiterverarbeitet wurden. Für Ihre internen Bestandssysteme mit sogenannten In-situ-Daten, also Daten der „alten“ Welt mit klaren Strukturen und Gültigkeitszeitpunkten, können Sie entweder ebenso vorgehen oder einfach Ihre bestehenden Datenbewirtschaftungsprozesse weiternutzen. Diese In-situ-Daten können dann entweder auf bekanntem Weg in Ihr DWH gelangen. Oder Sie lassen Teile daraus in Ihren Data Lake fließen. Für den Data Lake werden die Streaming-Daten sowohl technisch (zippen, …) als auch inhaltlich komprimiert, beispielsweise nach Zeitscheiben aggregiert. Wichtig: Dafür muss bekannt sein, welche Daten aus den temporären Data Stores auf welche Weise komprimiert werden sollen. Sollen die Marktdaten auf Sekunden- oder gar auf Zehntel-Sekunden-Basis aggregiert werden? Können bei Blogeinträgen die enthaltenen Grafiken gelöscht werden oder müssen sie für weitere Analysen erhalten bleiben? Bereits hier müssen daher weitreichende Entscheidungen getroffen werden und eine Anbindung an das Metadaten-Repository ist Pflicht. Nun folgt die Königsdisziplin: die Strukturierung und Kombination der unprozessierten Rohdaten. Sogenannte Data-Scientists 16 I NEWS 01/2017

Unternehmenssteuerung t Dashboards entscheiden Data Marts auswerten Rechenkerne und Anwendungen berechnen Zentraler, integrierter Datenpool historisiertes DWH aufbereitete Data Stores Datenbewirtschaftung Data Lake Datenbewirtschaftung Temporäre Data Stores In-situ-Daten säubern, kombinieren Stream-Daten strukturieren unprozessierte Rohdaten komprimieren Metadaten- Repository Metadaten-Management Warehouse-Management DQ-Management Datenbewirtschaftung push and pull Quellsysteme klassisch neue Welt Abbildung 2: Analytic Excellence: Die Datenbewirtschaftung bis zum DWH verändert sich in der neuen Welt grundlegend. definieren und selektieren Felder aus den Rohdaten. Sammeln Sie nur Datum und Name jenes Post-Verfassers, der auf Twitter Ihren Kundenservice kritisiert? Oder auch die weiteren Tweets des Verfassers und dessen Kontaktliste? Apropos Kontaktliste: Über Fremdschlüssel werden Tabellen miteinander verknüpft und Beziehungen hergestellt. Wie umfassend selektiert werden muss, hängt auch von der Leistungsfähigkeit Ihrer Datenbank ab – je leistungsfähiger, desto mehr (scheinbar nutzlose) Daten können Sie sammeln, die später einmal ungeahnten Nutzen bringen können … Eine Säuberung der Daten, beispielsweise die Bereinigung um Redundanz oder unbrauchbare Meta-Informationen, kann möglicherweise auch schon im Schritt davor erfolgen. Im zweiten Teil unserer Artikelreihe lesen Sie: > > Wie Sie mit Selfservice-BI (auch bekannt als Sandboxing) Ihren Fachbereichen neue Möglichkeiten der individuellen Datenauswertung eröffnen und welche entscheidende Rolle die IT dabei spielt. > > Eine aufsichtsrechtskonforme BI-Finanz-Architektur ohne klassisches Data Warehouse – geht das denn überhaupt? Ansprechpartner Die derart aufbereiteten Daten verfügen nun über die gleiche Datenqualität wie die „klassischen“ DWH-Daten. Sie können entweder für Berechnungen in den Banksteuerungsanwendungen verwendet oder im DWH historisiert werden. Mathis Manz IT Consultant Sparkassen-Finanzgruppe > +49 (0) 89 / 94 3011 - 0 > mathis.manz@msg-gillardon.de Quellen/Referenzen: Pekka Pääkkönen, Daniel Pakkala (2015): Reference Architecture and Classification of Technologies, Products and Services for Big Data Systems. Big Data Research, Volume 2, Issue 4, Pages 166–186 NEWS 01/2017 I 17

msgGillardon

03 | 2016 NEWS
02 | 2016 NEWS
01 | 2016 NEWS
03 | 2015 NEWS
02 | 2015 NEWS
01 | 2015 NEWS
02 | 2014 NEWS
01 | 2014 NEWS
02 | 2013 NEWS
01 | 2012 NEWS
02 | 2011 NEWS
01 | 2010 NEWS
MaRisk
01 | 2017 banking insight
01 | 2015 banking insight
01 | 2014 banking insight
01 | 2013 banking insight
01 | 2012 banking insight
02 | 2011 banking insight
01 | 2011 banking insight
01 | 2010 banking insight
2016 | Seminarkatalog | Finanzen

Über msgGillardon



Wir bieten unseren Kunden Management-, Business-, Prozess- und IT-Beratung. Darüberhinaus entwickeln wir kundenspezifische Lösungen, sowohl auf Basis unserer eigenen Software als auch auf Basis marktüblicher Standardsoftware. Sofern gewünscht entwickeln wir auch Individuallösungen - ganz auf Ihre Bedürfnisse zugeschnitten. Mit unserer Beratungskompetenz, bankfachlicher Expertise und IT-Know-how unterstützen und begleiten wir Sie umfassend und helfen Ihnen, in dynamischen Märkten schnell, flexibel und erfolgreich zu handeln.

Ihr Erfolg ist unser Antrieb: Unsere mehr als 400 Mitarbeiterinnen und Mitarbeiter arbeiten mit Kompetenz und Leidenschaft an der Realisierung gemeinsamer Ideen - zuverlässig, engagiert und verantwortungsbewusst.

msgGillardon - Ihr Partner für zukunftsweisende Lösungen für die Finanzbranche.


© 2015 by msgGillardon AG - powered by yumpu Datenschutz | Impressum