Entwicklung und Datenmodellierung eines neuen Data Warehouse Kerns nach Absprache mit Fachabteilung
Adhoc Auswertungen und Risikoanalyse auf Basis DWH-Kern für Fachseite
Unterstützung beim Aufbau eines Business Layers basierend auf den DWH Kern
Definition und Review von Daten Mapppings
Entwicklung und Erweiterung von ETL-Datenbeladungsjobs mit IBM DataStage und PL/SQL in einer Oracle IBM DB2 (mit IDAA) und MS SQL Umgebung
Analyse der Datenqualität und Entwicklung von Testprozeduren
Prototyping von QuerySurge Routinen und Integration in IBM DataStage
Einführung einer neuen Datenkomprimierung Funktionalität ins Data Warehouse
Anbindung von Daten aus dem IBM CDC und dem Kafka/Avro, Schema Registry und Kafka Connect Framework mit IBM DataStage und der Java Integration Stage
Eingebunden in Bereiche: Vertrag, Partner, Objekt, Produkt, Lokation, Schaden
Aktualisierung SAP BO Reports, Universen und List-of-Values
Test und Aktualisierung von InfoBurst Konfigurationen
Reverse Engineering von historischen ETL Strecken und Fehlerbehebung
Überwachung der täglichen Datenverarbeitung und Behebung von Beladungsproblemen
Technologien:
Linux, IBM DB2 und Oracle 19c (JSON SQL), AQT/TOAD/SQL-Developer, IBM InfoSphere DataStage 11.7, IBM CDC 11.4, Kafka/Avro Framework, Schema-Registry, QuerySurge, Enterprise Architect, JIRA, TortoiseSVN/GIT, SAP BO
01/2022
-
06/2023
Data Warehouse Berater
Deutsche Bundesbank, Frankfurt
(Banken und Finanzdienstleistungen, >10.000 Mitarbeiter)
Tätigkeiten
Datenmodellierung Core Datawarehouse (Data Vault 2.0) für internationale Bankdaten
Entwicklung von ETL-Datenbeladungsjobs mit IBM DataStage und Unix Bash Scripting
Prototyping DataStage mit Unix-Steuerung und Generischer ETL-Datenbeladung
Erstellung und Beladung von Fehlerprotokolltabellen und Views
Erstellung von Mapping Spezifikationen
Erstellung von XML-SQL Abfragen, Views und Extraktionen
Analyse der Datenqualität und Test der Konsistenz
Target2 Anbindung von Stammdaten CRDM und Transaktionsdaten RTGS/CLM
Technologien:
IBM DB2, DB-Visualizer 10.0, IBM InfoSphere DataStage 11.7, SAP PowerDesigner JIRA, TortoiseSVN
01/2021
-
12/2021
Data Warehouse Berater
Postfinance, Bern
(Banken und Finanzdienstleistungen, 5000-10.000 Mitarbeiter)
Tätigkeiten
Analyse der Datenqualität und Test der Konsistenz
Erstellung und Laufzeitoptimierung von AdHoc SQL-Abfragen (mit Indexoptimierung)
Prototyping Partition und Tablespace Verteilung für große Tabellen
Entwicklung von ETL-Datenbeladungsjobs in Python in einer IntelliJ Umgebung
Optimierung Datenabfragegeschwindigkeit in der Oracle DB durch Indexe, Pragmas und Partitionierung
Technologien:
Oracle 19c, TOAD / SQLDeveloper, IntelliJ mit Python, JIRA, TortoiseGIT
05/2020
-
12/2020
Data Warehouse Berater
Deutsche Bundesbank, Frankfurt
(Banken und Finanzdienstleistungen, >10.000 Mitarbeiter)
Tätigkeiten
Datenmodellierung Core Datawarehouse (Data Vault) für internationale Bankdaten
Entwicklung von Datenbeladungsjobs mit IBM DataStage
Analyse der Datenqualität und Test der Konsistenz
Target2 Anbindung von Stammdaten CRDM und Transaktionsdaten RTGS/CLM
Technologien:
IBM DB2, DB-Visualizer 10.0, IBM InfoSphere DataStage 11.7, SAP PowerDesigner JIRA, TortoiseSVN
Entwicklung und Datenmodellierung eines neuen Data Warehouse Kerns
Definition und Review von Daten Mapppings
Entwicklung von Datenbeladungsjobs mit DataStage und PL/SQL
Analyse der Datenqualität und Entwicklung von Testprozeduren
Prototyping von QuerySurge Routinen und Integration in DataStage
Einführung einer neuen Datenkomprimierung Funktionalität ins Data Warehouse
Unterstützung bei technischen Fragen und Datenproblemen
Anbindung von Daten aus dem IBM CDC mit DataStage und Kafka/Avro, Schema Registry und Kafka Connect
Technologien:
Linux, IBM DB2 and Oracle 12c, AQT/TOAD/SQL-Developer, IBM InfoSphere DataStage
11.7, IBM CDC 11.4, Kafka/Avro, Schema-Registry, QuerySurge, Enterprise Architect,
JIRA, TortoiseSVN/GIT
11/2014
-
02/2016
Manager und Solutions Architect
Ernst & Young, Auckland
(Wirtschaftsprüfung, Steuern und Recht, 1000-5000 Mitarbeiter)
Tätigkeiten:
Einführung eines neuen Versicherungsdatenmodells basierend auf IBM IAA (Partner, Vertrag, Provision, Schaden, Produkt Geschäftssystem) mit entsprechender Data Warehouse Architektur
Anbindung von OpenData Quellen mit SSIS (WebServices/REST) für Banken
Migration vom MS Project Daten in eine Tableau Anwendung
Whitepaper zu BigData Architekturen basierend auf Hadoop und zugehörigen Distributionen
Technologien:
IBM IAA, MS-SQL Server (SSIS/SSRS), SAP PowerDesigner, BigData (Hadoop), Tableau
Technische Leitung bei der Entwicklung eines Neutralen Versicherungs-Datenmodells in ETL mit DataStage, Befüllung Data Marts (Star-Schema und das neue Data Warehouse entspricht der Hub-Spoke-Architektur)
AD-Hoc Queries für das Management Information System in PL/SQL und Optimierung mit Explain + Parallelisierung
Entwurf und Realisierung Datenextraktion nach Fachvorgaben für Provision-Schaden Auswertung
Optimierung von Datenextraktions-SQL für große Datenmengen in Struktur und Laufzeit , Versionierung mit SVN
Technologien:
Oracle 11g (PL/SQL), Oracle Data Modeler, SVN, SAP BO, DataStage 8.7, Talend
Reisebereitschaft
Verfügbar in den Ländern
Deutschland, Österreich und Schweiz
Zur Zeit bin ich für Projekte inner- und ausserhalb Deutschlands in Teilzeit verfügbar.
Projekt Manager und Business Systems Analyst
Profil folgen
Für diese Anzeige benötigen Sie die Enterprise-Mitgliedschaft.
Profil folgen
Bitte geben Sie einen Namen für Ihre neue Merkliste an