Aufrufe
vor 9 Monaten

01 | 2017 NEWS

  • Text
  • Banken
  • Planung
  • Anforderungen
  • Unternehmenssteuerung
  • Aufsicht
  • Risiko
  • Baseler
  • Sparkasse
  • Devops
  • Msggillardon
Überblick

BI-Architekturen der

BI-Architekturen der Zukunft Teil I: (Near-)Realtime und Analytic Excellence von Rita Hennig und Mathis Manz Risikoreports erhalten Sie täglich im Batchbetrieb. Reicht Ihnen das? Denn: Die Zukunft sieht anders aus, die Welt verändert sich im Sekundentakt: Hier übernehmen Terroristen die Kontrolle über ein Ölfeld, dort wird Land X im Rating abgestuft und wie lange hält die Immobilienblase noch? Glücklich, wer dabei den Überblick behält. werden wir uns mit Selfservice-BI beschäftigen und abschließend noch eine völlig neue Welt andenken: eine aufsichtsrechtskonforme BI-Finanz-Architektur ohne (klassisches) Datawarehouse. (Near-)Realtime – nie mehr Stress bei Ad-hoc- Prüfungen Drei Schlagwörter bestimmen diesbezüglich den aktuellen Diskurs: (Near-)Realtime, Analytic Excellence und Selfservice-BI, auch bekannt als Sandboxing. Wir haben uns vor dem Hintergrund dieser Schlüsselbegriffe gefragt: Wie sieht die Business- Intelligence(BI)-Finanz-Architektur der Zukunft aus? Je Thema haben wir eine eigene Architektur skizziert – auch wenn schlussendlich in jedem Finanzinstitut natürlich nur eine BI-Architektur gleichzeitig existieren kann. Unterschiede und Besonderheiten der einzelnen Anwendungsfälle lassen sich dadurch besser erkennen. Im ersten Teil unserer Artikelreihe untersuchen wir, wie Sie Auswertungen in (fast) Echtzeit möglich machen und ungeahnte Datenschätze für Ihr Unternehmen heben. In Teil II Sie möchten einen Drill-Down in die Quartalsergebnisse schon während des morgendlichen Zähneputzens durchführen? Oder künftigen Ad-hoc-Anforderungen der Aufsicht, wie zum Beispiel der Fire-Drill-Übung der EZB 1 , gelassener entgegensehen können? In-Memory und ein Kennzahlen-Repository machen es möglich. 1 Bei der Fire-Drill-Übung ist die Erwartungshaltung der Aufsicht an die Banken, gewisse Kennzahlen, beispielsweise die Liquidity Coverage Ratio und die damit zusammenhängenden Kennzahlen wie der CoCBC und der Maturity Ladder sehr zeitnah (t+1 oder zumindest t+2) berichten zu können (Quelle: Erfahrungsbericht der Autoren bei einer großen deutschen Landesbank). 14 I NEWS 01/2017

Unternehmenssteuerung t Der Begriff „In-Memory“ ist schon seit einigen Jahren en vogue und darf in (beinahe) keiner Zukunftsprognose fehlen. Er beschreibt, dass Daten nicht mehr im (sehr langsamen) Plattenspeicher gehalten werden, sondern im ungleich schnelleren Arbeitsspeicher, englisch „memory“. Zum Vergleich: Eine Reise, die im Plattenspeicher etwa so lange dauern würde, wie ein Flug zum Pluto und zurück, entspricht im Arbeitsspeicher einer einstündigen Fahrt mit der U-Bahn. Und Arbeitsspeicher wird immer günstiger. Oft taucht In-Memory in Begleitung der beiden Begriffe „Realtime“ und „Analytics“ auf. Das ist korrekt, gleichwohl möchten wir uns in diesem Kapitel auf „Realtime“ konzentrieren. Es geht also zunächst nicht darum, neue Datenschätze zu heben (das werden wir im Kapitel „Analytic Excellence“ diskutieren), sondern ausschließlich darum, die gewohnten Anfragen auf den Unternehmensdatenhaushalt in Echtzeit beantworten zu können. Hierfür braucht es im Wesentlichen drei Dinge: erstens ein Datawarehouse (DWH) auf In-Memory-Basis, zweitens einen herkömmlichen Plattenspeicher und drittens ein Kennzahlen-Repository. Während das In-Memory-DWH, wie oben beschrieben, der enormen technischen Beschleunigung von Datenzugriffen dient, ist es die Aufgabe des Plattenspeichers, die DWH-Ergebnisse zu persistieren und damit gegen Ausfälle des Arbeitsspeichers zu sichern. halten. Ob dabei auf bereits hochaggregierte DWH-Ergebnisse zugegriffen wird oder die Berechnung der Kennzahlen sogar auf Einzelgeschäftsebene im Kennzahlen-Repository erfolgt, ist gesondert zu entscheiden. Natürlich sind auf einem In-Memory-DWH auch klassische Datenauswertungen über Datamarts möglich; ebenso können auch Quellsysteme mit In-Memory betrieben werden. Da wir aber davon ausgehen, dass ein zentraler Single-Point-of-Truth aus aufsichtsrechtlichen Gründen auch in 20 Jahren noch gefordert sein wird, beschränkt sich unsere Darstellung auf das DWH als essenzielle Komponente. Analytic Excellence – entscheidend sind die Quelldaten Zahllose Tools und Technologien zur Analyse von Daten sind in den vergangenen Jahren aus dem Boden geschossen. Doch die meisten dieser Tools setzen auf wohlstrukturierten Daten auf. Sie gehen also stillschweigend von einer bereits idealen Datenwelt des Anwenders aus. Die Realität hingegen zeigt: Vor allem der Weg der Datenbewirtschaftung muss grundlegend neu gedacht werden, um die Informationen aus den unendlichen Datenströmen nutzen zu können. Das Kennzahlen-Repository beinhaltet die Definitionen aller relevanten Kennzahlen und ist der fachliche Motor zur Reporting- Beschleunigung. Bereits die Konzeption des Repositoriums hilft, ein institutsweit einheitliches Verständnis Ihrer Kennzahlen zu entwickeln (siehe Infobox). Die zentrale Ablage des Repositoriums ermöglicht es, Ad-hoc-Anfragen künftig schneller zu beantworten. Um aber tatsächlich alle Vorteile der In-Memory- Datenbank auszuschöpfen, müssen die Kennzahlen automatisiert berechnet werden können. Eine einfache Excel-Liste reicht daher nicht aus – das Kennzahlen-Repository muss die Formeln und DWH-Verknüpfungen (siehe Infobox) maschinenlesbar vor- Kennzahlen-Repository und BCBS 239 Ein Kennzahlen-Repository ist weit mehr als nur eine Auflistung finanzmathematischer Formeln: Um wahren Nutzen zu stiften, umfasst es auch konkrete Zuordnungen der Kennzahl-Input-Parameter zu Feldern in Ihrem DWH. Fragt der Nutzer (oder die Aufsicht) beispielsweise die LCR-Kennzahl an, genügt ein Blick in das Kennzahlen-Repository, um zu wissen, welche Datenbankeinträge aufsummiert und durch welche anderen Werte geteilt werden müssen. Dies erhöht einerseits den Komfort für den Nutzer bei häufig benutzten Anfragen, andererseits werden dadurch deterministische und folglich prüfungssichere Ergebnisse sichergestellt. Ein Kennzahlen-Repository ist daher nicht ohne Grund ein häufig eingesetztes Werkzeug in BCBS-239-Projekten. NEWS 01/2017 I 15

msgGillardon

03 | 2016 NEWS
02 | 2016 NEWS
01 | 2016 NEWS
03 | 2015 NEWS
02 | 2015 NEWS
01 | 2015 NEWS
02 | 2014 NEWS
01 | 2014 NEWS
02 | 2013 NEWS
01 | 2012 NEWS
02 | 2011 NEWS
01 | 2010 NEWS
MaRisk
01 | 2017 banking insight
01 | 2015 banking insight
01 | 2014 banking insight
01 | 2013 banking insight
01 | 2012 banking insight
02 | 2011 banking insight
01 | 2011 banking insight
01 | 2010 banking insight
2016 | Seminarkatalog | Finanzen

Über msgGillardon



Wir bieten unseren Kunden Management-, Business-, Prozess- und IT-Beratung. Darüberhinaus entwickeln wir kundenspezifische Lösungen, sowohl auf Basis unserer eigenen Software als auch auf Basis marktüblicher Standardsoftware. Sofern gewünscht entwickeln wir auch Individuallösungen - ganz auf Ihre Bedürfnisse zugeschnitten. Mit unserer Beratungskompetenz, bankfachlicher Expertise und IT-Know-how unterstützen und begleiten wir Sie umfassend und helfen Ihnen, in dynamischen Märkten schnell, flexibel und erfolgreich zu handeln.

Ihr Erfolg ist unser Antrieb: Unsere mehr als 400 Mitarbeiterinnen und Mitarbeiter arbeiten mit Kompetenz und Leidenschaft an der Realisierung gemeinsamer Ideen - zuverlässig, engagiert und verantwortungsbewusst.

msgGillardon - Ihr Partner für zukunftsweisende Lösungen für die Finanzbranche.


© 2015 by msgGillardon AG - powered by yumpu Datenschutz | Impressum