Beschreibung
Aufgaben:Ziele
·Implementierung von Use Cases und Funktionalitäten im Kontext der Self-Service-Datenplattform
Geplante Tätigkeiten
·Befähigung von (Data) Engineers in den Data Domains (Use Case Ownern) zur Nutzung der Self-Service-Datenplattform
·Analyse der Use-Cases (zusammen mit Datenarchitekten bzw. Platform Provider) und Anforderungsmanagement
·Technische Spezifikation der Anforderungen für die Umsetzung (User Stories)
·Agile Implementierung von User Stories, Testing, Integration und Dokumentation
·Support & Fehlerbehebung durchführen
·Pairing Sessions und Wissenstransfer mit Entwicklern und Data Engineers aus den Fachabteilungen, und/oder Implementierung als Deskwork
·Erstellen von Linked Services in Azure Data Factory
·Erstellen und erweitern von Data Ingestion Pipelines in Azure Data Factory
·Erstellen und erweitern von Data Transformations Notebooks in Azure Databricks (PySpark, SQL)
·Konfigurieren von Tabellen und Views in Azure Synapse
·Konfigurieren und verwenden weiterer Services des Lakehouse, soweit notwendig zur Umsetzung der Use Cases (Data Plane), z.B. Key Vault etc.
·Laufende Abstimmungen mit Stakeholdern und Plattform-Team (z.B. Konfigurationen auf Control Plane)
·Teilnahme an Alignmentmeetings mit Plattform-Team, und Abstimmung bzw. Übergabe innerhalb des Enabling Teams
Must-Have-Skills:
·MS Azure:
·Azure Data Factory, Azure Data Lakehouse, Azure Synapse
·Python, PySpark
·SQL
·ETL / ELT (Extract - Transform - Load)
·Testing, Integration & Dokumentation
Nice-to-Have-Skills:
·Agile / Scrum Vorgehensweisen
·Data User Stories
·Azure Key Vault
Start: 01.05.2024
Dauer: 13 Monate
Einsatzort: 95% Remote Anteil & Wien, Österreich
Auslastung: 100%